Le barriere etiche, di fiducia e di competenze rallentano il progresso dell’intelligenza artificiale generativa nell’area EMEA

 | Intelligenza-Artificiale

Il 76% dei consumatori nell’area EMEA ritiene che l’intelligenza artificiale avrà un impatto significativo nei prossimi cinque anni, ma il 47% mette in dubbio il valore che l’intelligenza artificiale porterà e il 41% è preoccupato per le sue applicazioni.

Questo è secondo una ricerca condotta dalla società di analisi AI aziendale Alteryx.

Dal rilascio di ChatGPT da OpenAI nel novembre 2022, si è parlato molto del potenziale di trasformazione dell’intelligenza artificiale generativa, e molti la considerano una delle tecnologie più rivoluzionarie del nostro tempo.

Con un significativo 79% di organizzazioni che riferiscono che l’IA generativa contribuisce positivamente al business, è evidente che è necessario colmare un divario per dimostrare il valore dell’IA ai consumatori sia nella loro vita personale che professionale. Secondo il rapporto “Market Research: Attitudes and Adoption of Generative AI”, che ha intervistato 690 leader aziendali IT e 1.100 membri del pubblico in generale nell'area EMEA, le questioni chiave di fiducia, etica e competenze sono prevalenti, potenzialmente ostacolando un'implementazione di successo e una più ampia accettazione dell’intelligenza artificiale generativa.

L’impatto della disinformazione, delle imprecisioni e delle allucinazioni dell’intelligenza artificiale

Queste allucinazioni – in cui l’intelligenza artificiale genera risultati errati o illogici – rappresentano una preoccupazione significativa. Fidarsi di ciò che produce l’intelligenza artificiale generativa è una questione sostanziale sia per i leader aziendali che per i consumatori. Oltre un terzo del pubblico è preoccupato per il potenziale dell’intelligenza artificiale di generare notizie false (36%) e per il suo uso improprio da parte degli hacker (42%), mentre la metà dei leader aziendali riferisce di essere alle prese con la disinformazione prodotta dall’intelligenza artificiale generativa. Allo stesso tempo, la metà dei leader aziendali ha osservato le proprie organizzazioni alle prese con la disinformazione prodotta dall’intelligenza artificiale generativa.

Inoltre, l’affidabilità delle informazioni fornite dall’IA generativa è stata messa in dubbio. Il feedback del grande pubblico indica che la metà dei dati ricevuti dall’intelligenza artificiale erano imprecisi e il 38% li considerava obsoleti. Sul fronte aziendale, le preoccupazioni includono la violazione dei diritti d’autore o di proprietà intellettuale da parte dell’intelligenza artificiale generativa (40%) e la produzione di risultati inaspettati o non desiderati (36%).

Un problema critico di fiducia per le aziende (62%) e il pubblico (74%) riguarda le allucinazioni legate all’intelligenza artificiale. Per le aziende, la sfida consiste nell’applicare l’intelligenza artificiale generativa a casi d’uso appropriati, supportata dalla giusta tecnologia e misure di sicurezza, per mitigare queste preoccupazioni. Quasi la metà dei consumatori (45%) sostiene misure normative sull’utilizzo dell’intelligenza artificiale.

Preoccupazioni e rischi etici persistono nell’uso dell’intelligenza artificiale generativa

Oltre a queste sfide, ci sono sentimenti forti e simili sulle preoccupazioni etiche e sui rischi associati all’intelligenza artificiale generativa sia tra i leader aziendali che tra i consumatori. Più della metà del pubblico in generale (53%) si oppone all’uso dell’intelligenza artificiale generativa nel prendere decisioni etiche. Nel frattempo, il 41% degli intervistati aziendali è preoccupato per la sua applicazione in aree decisionali critiche. Esistono distinzioni nelle aree specifiche in cui il suo utilizzo è sconsigliato; i consumatori si oppongono in particolare al suo utilizzo in politica (46%) e le aziende sono caute riguardo al suo utilizzo nel settore sanitario (40%).

Queste preoccupazioni trovano una certa conferma nei risultati della ricerca, che evidenziano preoccupanti lacune nelle pratiche organizzative. Solo un terzo dei leader ha confermato che le proprie aziende garantiscono che i dati utilizzati per addestrare l’intelligenza artificiale generativa siano diversificati e imparziali. Inoltre, solo il 36% ha stabilito linee guida etiche e il 52% ha stabilito politiche sulla privacy e sulla sicurezza dei dati per le applicazioni di intelligenza artificiale generativa.

Questa mancanza di enfasi sull’integrità dei dati e sulle considerazioni etiche mette a rischio le aziende. Il 63% dei leader aziendali cita l’etica come la principale preoccupazione riguardo all’intelligenza artificiale generativa, seguita da vicino dalle questioni relative ai dati (62%). Questo scenario sottolinea l’importanza di una migliore governance per creare fiducia e mitigare i rischi legati al modo in cui i dipendenti utilizzano l’intelligenza artificiale generativa sul posto di lavoro.

L’aumento delle competenze di intelligenza artificiale generativa e la necessità di una maggiore alfabetizzazione dei dati

Con l’evoluzione dell’intelligenza artificiale generativa, stabilire competenze rilevanti e migliorare l’alfabetizzazione dei dati sarà fondamentale per realizzarne il pieno potenziale. I consumatori utilizzano sempre più tecnologie di intelligenza artificiale generativa in vari scenari, tra cui il recupero di informazioni, la comunicazione via e-mail e l’acquisizione di competenze. I leader aziendali affermano di utilizzare l’intelligenza artificiale generativa per l’analisi dei dati, la sicurezza informatica e l’assistenza clienti e, nonostante il successo dei progetti pilota, le sfide rimangono. Nonostante il successo riportato dei progetti sperimentali, permangono diverse sfide, tra cui problemi di sicurezza, problemi di privacy dei dati e qualità e affidabilità dell’output.

Trevor Schulze, CIO di Alteryx, ha sottolineato la necessità che sia le imprese che il pubblico in generale comprendano appieno il valore dell'intelligenza artificiale e affrontino le preoccupazioni comuni mentre attraversano le prime fasi dell'adozione dell'intelligenza artificiale generativa.

Ha osservato che affrontare i problemi di fiducia, le preoccupazioni etiche, la carenza di competenze, i timori di invasione della privacy e i pregiudizi algoritmici sono compiti cruciali. Schulze ha sottolineato la necessità per le aziende di accelerare il percorso dei dati, adottare una governance solida e consentire a soggetti non tecnici di accedere e analizzare i dati in modo sicuro e affidabile, affrontando le preoccupazioni sulla privacy e sui pregiudizi al fine di trarre realmente profitto da questa tecnologia “rivoluzionaria”.

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Tag: ai, intelligenza artificiale, sicurezza informatica, dati, ai generativi

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *