Sulla scia della rivoluzione dell’intelligenza artificiale generativa (GenAI), le aziende del Regno Unito si trovano a un bivio tra opportunità senza precedenti e sfide intrinseche.
Paul O’Sullivan, vicepresidente senior di Solution Engineering (UKI) presso Salesforcefa luce sulle complessità di questo panorama in trasformazione, esortando le aziende a procedere con cautela mentre abbracciano il potenziale dell’intelligenza artificiale.
Opportunità senza precedenti
L’intelligenza artificiale generativa ha preso d’assalto la scena con notevole velocità. ChatGPT, ad esempio, ha accumulato 100 milioni di utenti in soli due mesi.
“Se si contestualizza il dato, ci sono voluti 10 anni per raggiungere 100 milioni di utenti su Netflix”, afferma O’Sullivan.
Questa rapida adozione segnala un cambiamento epocale, promettendo una crescita economica sostanziale. O’Sullivan stima che l’intelligenza artificiale generativa abbia il potenziale contribuire con l’incredibile cifra di 3,5 trilioni di sterline (4,4 trilioni di dollari) all’economia globale.
“Ancora una volta, se si contestualizza il dato, si tratta della stessa quantità di tasse che l’intero Stati Uniti assorbe”, aggiunge O’Sullivan.
Uno dei suoi principali vantaggi risiede nel favorire l’automazione, con la prospettiva di automatizzare fino al 40% della giornata lavorativa media, con conseguenti incrementi significativi della produttività per le aziende.
Il divario di fiducia nell’IA
Tuttavia, in mezzo all’entusiasmo, si profila una sfida significativa: il divario di fiducia nell’IA.
O’Sullivan riconosce che, nonostante sia una priorità assoluta per i dirigenti di alto livello, oltre la metà dei clienti rimane scettica sulla sicurezza delle applicazioni IA.
Affrontare questo divario richiederà un approccio articolato, che comprenda la gestione delle questioni relative alla qualità dei dati e la garanzia che i sistemi di intelligenza artificiale siano basati su set di dati affidabili, imparziali e rappresentativi.
“Le aziende hanno lottato con la qualità e l’igiene dei dati. Quindi questa è un’area chiave su cui concentrarsi”, spiega O’Sullivan.
Anche la tutela della privacy dei dati è fondamentale, con misure rigorose necessarie per prevenire l’uso improprio delle informazioni sensibili dei clienti.
“Sia i clienti che le aziende sono preoccupati per la privacy dei dati: non possiamo lasciare che modelli linguistici di grandi dimensioni memorizzino e imparino dai dati sensibili dei clienti”, afferma O’Sullivan. “Oltre la metà dei clienti e dei loro clienti non crede che l’intelligenza artificiale sia sicura e protetta oggi.”
Considerazioni etiche
L’intelligenza artificiale suggerisce anche considerazioni etiche. Le preoccupazioni relative alle allucinazioni – in cui i sistemi di intelligenza artificiale generano informazioni imprecise o fuorvianti – devono essere affrontate meticolosamente.
Le aziende devono affrontare pregiudizi e tossicità incorporati negli algoritmi di intelligenza artificiale, garantendo equità e inclusività. Trovare un equilibrio tra innovazione e responsabilità etica è fondamentale per conquistare la fiducia dei clienti.
“Un’intelligenza artificiale affidabile dovrebbe soddisfare costantemente le aspettative, rispettare gli impegni e creare un senso di affidabilità all’interno dell’organizzazione”, spiega O’Sullivan. “È fondamentale affrontare i limiti e i rischi potenziali. Dobbiamo essere aperti qui e guidare con integrità”.
Man mano che le aziende abbracciano l’intelligenza artificiale, anche il miglioramento delle competenze della forza lavoro sarà fondamentale.
O’Sullivan sostiene un approccio proattivo, incoraggiando i dipendenti a padroneggiare l’arte della scrittura tempestiva. Creare suggerimenti efficaci è fondamentale, poiché consente interazioni più rapide e precise con i sistemi di intelligenza artificiale e migliora la produttività in varie attività.
Inoltre, comprendere il gergo dell’intelligenza artificiale è essenziale per favorire conversazioni aperte e consentire un processo decisionale informato all’interno delle organizzazioni.
Un futuro collaborativo
Fondamentalmente, O’Sullivan sottolinea un futuro collaborativo in cui l’intelligenza artificiale funge da copilota piuttosto che da sostituto delle competenze umane.
“L’intelligenza artificiale, per ora, manca di capacità cognitive come l’empatia, il ragionamento, l’intelligenza emotiva e l’etica, e queste sono competenze aziendali assolutamente fondamentali che gli esseri umani devono mettere in campo”, afferma O’Sullivan.
Questa collaborazione promuove un senso di fiducia, poiché gli esseri umani agiscono come un controllo e un equilibrio per garantire l’uso responsabile della tecnologia AI.
Affrontando il divario di fiducia nell’intelligenza artificiale, migliorando le competenze della forza lavoro e promuovendo una collaborazione armoniosa tra esseri umani e intelligenza artificiale, le aziende possono sfruttare tutto il potenziale dell’intelligenza artificiale generativa, creando al tempo stesso fiducia tra i clienti.
Di seguito puoi guardare la nostra intervista completa con Paul O’Sullivan:
Paul O’Sullivan e il team Salesforce condivideranno le loro preziose informazioni durante l’edizione di quest’anno Fiera mondiale dell’intelligenza artificiale e dei big data. O’Sullivan sarà presente in un panel del primo giorno intitolato “Tecnologie convergenti: lavoriamo meglio insieme”.
Fonte: www.artificialintelligence-news.com