L’intelligenza artificiale è entrata nel mercato con grande successo, suscitando enorme interesse e adozione. Ma ora il ritmo vacilla.
I leader aziendali parlano ancora dell’adozione dell’intelligenza artificiale, perché ne vogliono i vantaggi: McKinsey stima che la GenAI potrebbe far risparmiare alle aziende fino a 2,6 trilioni di dollari in tutto una serie di operazioni. Tuttavia, non stanno camminando. Secondo un sondaggio condotto tra esperti di analisi e leader IT, solo il 20% delle applicazioni GenAI sono attualmente in produzione.
Perché questo ampio divario tra interesse e realtà?
La risposta è multiforme. Le preoccupazioni relative alla sicurezza e alla privacy dei dati, ai rischi di conformità e alla gestione dei dati sono di alto profilo, ma c’è anche ansia per la mancanza di trasparenza dell’intelligenza artificiale e preoccupazioni per il ROI, i costi e le lacune di competenze. In questo articolo esamineremo gli ostacoli all'adozione dell'intelligenza artificiale e condivideremo alcune misure che i leader aziendali possono adottare per superarli.
Ottieni un controllo sui dati
“I dati di alta qualità sono la pietra angolare di modelli di intelligenza artificiale accurati e affidabili, che a loro volta favoriscono processi decisionali e risultati migliori”, disse Rob JohnsonVP e Global Head of Solutions Engineering presso SolarWinds, aggiungendo: “Dati affidabili creano fiducia nell'intelligenza artificiale tra i professionisti IT, accelerando una più ampia adozione e integrazione delle tecnologie AI”.
Oggi, solo il 43% dei professionisti IT afferma di essere fiducioso nella propria capacità di soddisfare le richieste di dati dell’intelligenza artificiale. Dato che i dati sono così vitali per il successo dell’IA, non sorprende che le sfide legate ai dati siano un fattore spesso citato nella lenta adozione dell’IA.
Il modo migliore per superare questo ostacolo è tornare alle basi dei dati. Le organizzazioni devono costruire da zero una solida strategia di governance dei dati, con controlli rigorosi che garantiscano la qualità e l’integrità dei dati.
Prendere sul serio l’etica e la governance
Con il proliferare delle normative, la conformità è già un grattacapo per molte organizzazioni. L’intelligenza artificiale non fa altro che aggiungere nuove aree di rischio, più normative e maggiori questioni di governance etica di cui i leader aziendali devono preoccuparsi, nella misura in cui il rischio di sicurezza e conformità è stata la preoccupazione più citata nel rapporto State of Enterprise AI and Modern Data Architecture di Cloudera.
Sebbene l’aumento delle normative sull’intelligenza artificiale possa sembrare allarmante a prima vista, i dirigenti dovrebbero abbracciare il supporto offerto da questi framework, in quanto possono fornire alle organizzazioni una struttura attorno alla quale costruire i propri controlli del rischio e barriere etiche.
Sviluppare politiche di conformità, nominare team per la governance dell’IA e garantire che gli esseri umani mantengano l’autorità sulle decisioni basate sull’intelligenza artificiale sono tutti passi importanti nella creazione di un sistema completo di etica e governance dell’IA.
Rafforzare il controllo su sicurezza e privacy
Le preoccupazioni relative alla sicurezza e alla privacy dei dati incombono su ogni azienda, e con buone ragioni. Lo ha rivelato lo studio comparativo sulla privacy dei dati 2024 di Cisco 48% dei dipendenti ammettere di aver inserito informazioni aziendali non pubbliche negli strumenti GenAI (e un numero imprecisato lo ha fatto e non lo ammetterà), portando il 27% delle organizzazioni a vietare l'uso di tali strumenti.
Il modo migliore per ridurre i rischi è limitare l’accesso ai dati sensibili. Ciò implica raddoppiare i controlli di accesso e lo scorrimento dei privilegi e tenere i dati lontani dagli LLM ospitati pubblicamente. Avi Perez, CTO di Pyramid Analytics, ha spiegato che l'infrastruttura AI del suo software di business intelligence è stata deliberatamente costruita per tenere i dati lontani dal LLMcondividere solo i metadati che descrivono il problema e interfacciarsi con LLM come il modo migliore per i motori ospitati localmente di eseguire l'analisi. Non è solo una questione di privacy, ma anche di risultati fuorvianti. Quindi, in questo contesto, la privacy dei dati e le questioni ad essa associate sono enormi, secondo me. Sono uno spettacolo” Ha detto Perez. Con l'impostazione di Pyramid, invece, “LLM genera la ricetta, ma lo fa senza mai mettere le mani sui dati, e senza fare operazioni matematiche. (…) Ciò elimina qualcosa come il 95% del problema, in termini di rischi per la privacy dei dati.”
Aumentare la trasparenza e la spiegabilità
Un altro serio ostacolo all’adozione dell’IA è la mancanza di fiducia nei suoi risultati. La famigerata storia dello strumento di assunzione basato sull'intelligenza artificiale di Amazon, che discriminava le donne, è diventata un ammonimento che spaventa molte persone allontanandole dall'intelligenza artificiale. Il modo migliore per combattere questa paura è aumentare la spiegabilità e la trasparenza.
“La trasparenza dell’intelligenza artificiale significa spiegare chiaramente il ragionamento alla base del risultato, rendendo il processo decisionale accessibile e comprensibile”, disse Adnan Masoodcapo architetto AI presso UST e direttore regionale di Microsoft. “Alla fine, si tratta di eliminare il mistero della scatola nera dell'intelligenza artificiale e di fornire informazioni dettagliate sul come e il perché del processo decisionale sull'intelligenza artificiale.” Sfortunatamente, molti dirigenti trascurano l'importanza della trasparenza. Lo ha riferito un recente studio IBM solo il 45% degli amministratori delegati affermano che stanno offrendo capacità di apertura. I sostenitori dell'intelligenza artificiale devono dare priorità allo sviluppo di rigorose politiche di governance dell'intelligenza artificiale che impediscano la formazione di scatole nere e investire in strumenti di spiegabilità come SHpley Additive ExPlanations (SHAP), kit di strumenti di equità come gli indicatori di equità di Google e controlli di conformità automatizzati come l'intelligenza artificiale dell'Institute of Internal Auditor. Quadro di controllo.
Definire un chiaro valore aziendale
Il costo è nell’elenco delle barriere dell’IA, come sempre. Il sondaggio Cloudera ha rilevato che il 26% degli intervistati ritiene che gli strumenti di intelligenza artificiale siano troppo costosi e Gartner ha incluso il “valore aziendale poco chiaro” come fattore nel fallimento dei progetti di intelligenza artificiale. Tuttavia, lo stesso rapporto Gartner ha rilevato che GenAI ha prodotto un aumento medio delle entrate e un risparmio sui costi di oltre il 15% tra i suoi utenti, prova che l’intelligenza artificiale può favorire l’incremento finanziario se implementata correttamente.
Questo è il motivo per cui è fondamentale avvicinarsi all'intelligenza artificiale come ogni altro progetto aziendale: identificare le aree che forniranno un ROI rapido, definire i vantaggi che ci si aspetta di vedere e impostare KPI specifici in modo da poter dimostrare il valore. una strategia e una tabella di marcia per l’intelligenza artificiale, un primo passo fondamentale è identificare i casi d’uso dell’intelligenza artificiale più preziosi e trasformativi su cui concentrarsi”, ha detto Michael RobinsonDirettore del marketing del prodotto presso UiPath.
Stabilire programmi di formazione efficaci
Il divario di competenze rimane un ostacolo significativo all’adozione dell’intelligenza artificiale, ma sembra che si stiano facendo pochi sforzi per affrontare il problema. Un rapporto di Worklife indica che il boom iniziale nell’adozione dell’IA è arrivato dai primi utilizzatori. Ora tocca ai ritardatari, che sono intrinsecamente scettici e generalmente meno fiduciosi nei confronti dell’intelligenza artificiale e di qualsiasi nuova tecnologia.
Ciò rende fondamentale la formazione. Tuttavia, secondo lo studio State of AI at Work di Asana, Ha detto l'82% dei partecipanti le loro organizzazioni non hanno fornito formazione sull’uso dell’intelligenza artificiale generativa. Non vi è alcuna indicazione che la formazione non funzioni; piuttosto che non sta accadendo come dovrebbe.
L’obiettivo chiaro è offrire una formazione completa sui suggerimenti di qualità e altre competenze rilevanti. È incoraggiante che la stessa ricerca mostri che anche l’uso dell’intelligenza artificiale senza formazione aumenta le competenze e la fiducia delle persone. Pertanto, è una buona idea iniziare con strumenti a basso o senza codice che consentano ai dipendenti non qualificati in intelligenza artificiale di apprendere sul lavoro.
Gli ostacoli all’adozione dell’IA non sono insormontabili
Sebbene l’adozione dell’intelligenza artificiale abbia subito un rallentamento, non vi è alcuna indicazione che sia in pericolo a lungo termine. I numerosi ostacoli che impediscono alle aziende di implementare strumenti di intelligenza artificiale possono essere superati senza troppi problemi. Molti dei passi, come il rafforzamento della qualità dei dati e della governance etica, dovrebbero essere adottati indipendentemente dal fatto che l’intelligenza artificiale sia presa in considerazione o meno, mentre altri passi compiuti si ripagheranno da soli con maggiori entrate e guadagni di produttività che l’intelligenza artificiale può portare.
Fonte: www.artificialintelligence-news.com