Se hai mai preso un Uber a guida autonoma per il centro di Los Angeles, potresti riconoscere lo strano senso di incertezza che si annida quando non c’è nessun autista e nessuna conversazione, solo un’auto silenziosa che fa ipotesi sul mondo che la circonda. Il viaggio sembra tranquillo finché l’auto non interpreta male un’ombra o rallenta bruscamente per qualcosa di innocuo. In quel momento vedi il vero problema dell’autonomia. Non si fa prendere dal panico quando dovrebbe, ed è proprio in quel divario tra fiducia e giudizio che la fiducia si guadagna o si perde. Gran parte dell’AI aziendale di oggi sembra straordinariamente simile. È competente senza essere fiducioso ed efficiente senza essere empatico, motivo per cui il fattore decisivo in ogni implementazione di successo non è più la potenza di calcolo ma la fiducia.
IL MLQ Lo stato dell’intelligenza artificiale nel mondo degli affari nel 2025 Il rapporto (PDF) fornisce un numero netto al riguardo. Il 95% dei primi progetti pilota di IA non riesce a produrre un ROI misurabile, non perché la tecnologia sia debole ma perché non è adatta ai problemi che le organizzazioni stanno cercando di risolvere. Lo schema si ripete nelle industrie. I leader si sentono a disagio quando non riescono a capire se l’output è corretto, i team non sono sicuri che i dashboard siano affidabili e i clienti perdono rapidamente la pazienza quando un’interazione sembra automatizzata anziché supportata. Chiunque sia stato bloccato fuori dal proprio conto bancario mentre il sistema di recupero automatizzato insiste che le sue risposte siano sbagliate sa quanto velocemente la fiducia evapora.
Klarna rimane l’esempio più pubblicizzato di automazione su larga scala in azione. L’azienda ha ora ha dimezzato la sua forza lavoro dal 2022 e afferma che i sistemi di intelligenza artificiale interni svolgono il lavoro di 853 ruoli a tempo pieno, rispetto ai 700 di inizio anno. I ricavi sono aumentati del 108%, mentre i compensi medi dei dipendenti sono aumentati del 60%, finanziati in parte da tali guadagni operativi. Eppure il quadro è più complicato. Klarna riporta comunque una perdita trimestrale di 95 milioni di dollari, e il suo amministratore delegato ha avvertito che sono probabili ulteriori riduzioni del personale. Ciò dimostra che l’automazione da sola non crea stabilità. Senza responsabilità e struttura, l’esperienza si interrompe molto prima che lo faccia l’intelligenza artificiale. Come Jason Roos, CEO del fornitore CCaaS Cirroafferma: “Qualsiasi trasformazione che mina la fiducia, all’interno o all’esterno dell’azienda, comporta un costo che non puoi ignorare. Può lasciarti in condizioni peggiori”.
Abbiamo già visto cosa succede quando l’autonomia prevale sulla responsabilità. Il Dipartimento per il lavoro e le pensioni del Regno Unito ha utilizzato un algoritmo che ha erroneamente segnalato circa 200.000 richieste di sussidi abitativi come potenzialmente fraudolenti, anche se la maggioranza era legittima. Il problema non era la tecnologia. Era l’assenza di una chiara proprietà sulle sue decisioni. Quando un sistema automatizzato sospende l’account sbagliato, rifiuta la richiesta sbagliata o crea paure inutili, la questione non è mai semplicemente “perché il modello ha funzionato male?” È “chi possiede il risultato?” Senza quella risposta, la fiducia diventa fragile.
“Il passo mancante è sempre la preparazione”, afferma Roos. “Se il processo, i dati e i guardrail non sono in atto, l’autonomia non accelera le prestazioni, ma amplifica i punti deboli. La responsabilità deve venire prima di tutto. Inizia con il risultato, trova dove gli sforzi vengono sprecati, controlla la tua preparazione e governance, e solo allora automatizza. Salta questi passaggi e la responsabilità scompare con la stessa rapidità con cui arrivano i guadagni di efficienza.”
Parte del problema è l’ossessione per la scala senza le basi che rendono la scala sostenibile. Molte organizzazioni spingono verso agenti autonomi in grado di agire con decisione, ma pochissime si soffermano a considerare cosa succede quando tali azioni esulano dai limiti previsti. Il barometro della fiducia di Edelman (PDF) mostra un costante calo della fiducia del pubblico nell’intelligenza artificiale negli ultimi cinque anni e un calo comune Studio KPMG e Università di Melbourne hanno scoperto che i lavoratori preferiscono un maggiore coinvolgimento umano in quasi la metà dei compiti esaminati. I risultati rafforzano un punto semplice. La fiducia raramente deriva da una maggiore pressione sui modelli. Viene dalle persone che si prendono il tempo per capire come vengono prese le decisioni e da una governance che si comporta meno come un pedale del freno e più come un volante.
La stessa dinamica si manifesta dal lato cliente. La ricerca sulla fiducia di PwC rivela un ampio divario tra percezione e realtà. La maggior parte dei dirigenti ritiene che i clienti abbiano fiducia nella propria organizzazione, mentre solo una minoranza di clienti è d’accordo. Altri sondaggi mostrano che la trasparenza aiuta a colmare questo divario, con un’ampia maggioranza di consumatori che desiderano un’informativa chiara quando l’intelligenza artificiale viene utilizzata nelle esperienze di servizio. Senza quella chiarezza, le persone non si sentono rassicurate. Si sentono fuorviati e la relazione diventa tesa. Le aziende che comunicano apertamente sull’uso dell’intelligenza artificiale non solo proteggono la fiducia, ma normalizzano anche l’idea che tecnologia e supporto umano possano coesistere.
Parte della confusione deriva dal termine stesso “IA agente”. Gran parte del mercato lo tratta come qualcosa di imprevedibile o auto-diretto, quando in realtà si tratta di automazione del flusso di lavoro con ragionamento e richiamo. È un modo strutturato in cui i sistemi prendono decisioni modeste all’interno di parametri progettati dalle persone. Le distribuzioni scalabili in modo sicuro seguono tutte la stessa sequenza. Iniziano con il risultato che desiderano migliorare, poi esaminano dove si trovano sforzi non necessari nel flusso di lavoro, quindi valutano se i loro sistemi e team sono pronti per l’autonomia e solo allora scelgono la tecnologia. Invertire quell’ordine non accelera nulla. Crea semplicemente errori più veloci. Come dice Roos, l’intelligenza artificiale dovrebbe espandere il giudizio umano, non sostituirlo.
Tutto ciò punta verso una verità più ampia. Ogni ondata di automazione alla fine diventa una questione sociale piuttosto che puramente tecnica. Amazon ha costruito la sua posizione dominante attraverso la coerenza operativa, ma ha anche costruito un livello di fiducia nell’arrivo del pacco. Quando la fiducia diminuisce, i clienti vanno avanti. L’intelligenza artificiale segue lo stesso schema. È possibile implementare sistemi sofisticati e autocorrettivi, ma se il cliente si sente ingannato o fuorviato in qualsiasi momento, la fiducia viene meno. Internamente si applicano le stesse pressioni. IL Studio globale KPMG (PDF) evidenzia la rapidità con cui i dipendenti si disimpegnano quando non capiscono come vengono prese le decisioni o chi ne è responsabile. Senza questa chiarezza, l’adozione si blocca.
Man mano che i sistemi agenti assumono ruoli più conversazionali, la dimensione emotiva diventa ancora più significativa. Le prime revisioni delle interazioni autonome in chat mostrano che le persone ora giudicano la loro esperienza non solo in base al fatto che siano state aiutate, ma anche in base al fatto che l’interazione sia stata attenta e rispettosa. Un cliente che si sente licenziato raramente tiene per sé la frustrazione. Il tono emotivo dell’intelligenza artificiale sta diventando un vero fattore operativo e i sistemi che non riescono a soddisfare tale aspettativa rischiano di diventare passività.
La dura verità è che la tecnologia continuerà a muoversi più velocemente dell’istinto delle persone a sentirsi a proprio agio con essa. La fiducia resterà sempre indietro rispetto all’innovazione. Questo non è un argomento contro il progresso. È un argomento di maturità. Ogni leader dell’intelligenza artificiale dovrebbe chiedersi se si fiderebbe del sistema con i propri dati, se può spiegare la sua ultima decisione in un linguaggio semplice e chi interviene quando qualcosa va storto. Se queste risposte non sono chiare, l’organizzazione non sta guidando la trasformazione. Sta preparando le scuse.
Roos dice semplicemente: “L’intelligenza artificiale agentiva non è la preoccupazione. L’intelligenza artificiale irresponsabile lo è”.
Quando la fiducia scompare, l’adozione scompare e il progetto che sembrava trasformativo diventa un’altra voce nel tasso di fallimento del 95%. L’autonomia non è il nemico. Dimenticare chi è responsabile lo è. Le organizzazioni che manterranno una mano umana sul volante saranno quelle che manterranno il controllo quando l’entusiasmo per la guida autonoma alla fine svanirà.
Fonte: www.artificialintelligence-news.com
