Costruire un futuro responsabile dell’intelligenza artificiale

 | Intelligenza-Artificiale

Mentre l’intelligenza artificiale continua a progredire rapidamente, le preoccupazioni etiche relative allo sviluppo e all’implementazione di queste innovazioni che cambiano il mondo stanno diventando sempre più evidenti.

In un'intervista prima del Expo sull'intelligenza artificiale e sui big data in Nord AmericaIgor Jablokov, CEO e fondatore della società AI Prioneaffrontato queste urgenti questioni a testa alta.

Sfide etiche critiche nell’intelligenza artificiale

“Non ce n'è uno, forse ce ne sono quasi 20 e più”, ha affermato Jablokov quando gli è stato chiesto quali fossero le sfide etiche più critiche. Ha delineato una litania di potenziali insidie ​​​​che devono essere attentamente esplorate: dalle allucinazioni dell’intelligenza artificiale e emissioni di falsità, alle violazioni della privacy dei dati e alle fughe di proprietà intellettuale derivanti dalla formazione su informazioni proprietarie.

Secondo Jablokov, pregiudizi e contenuti contraddittori che penetrano nei dati di addestramento rappresentano un'altra grande preoccupazione. Anche le vulnerabilità della sicurezza come gli agenti incorporati e gli attacchi di tipo “pront injection” sono in cima alla sua lista di preoccupazioni, così come il consumo energetico estremo e l’impatto climatico dei grandi modelli linguistici.

Le origini di Pryon possono essere fatte risalire ai primi sviluppi dell'intelligenza artificiale moderna più di due decenni fa. Jablokov aveva precedentemente guidato un team di intelligenza artificiale avanzata presso IBM, dove avevano progettato una versione primitiva di quello che in seguito sarebbe diventato Watson. “Non hanno dato il via libera. E così, nella mia frustrazione, me ne sono andato, ho sostenuto la nostra ultima compagnia”, ha raccontato. Quella società, all'epoca chiamata anche Pryon, divenne la prima acquisizione di Amazon legata all'intelligenza artificiale, dando vita a quella che ora è Alexa.

L’attuale incarnazione di Pryon ha mirato ad affrontare i dilemmi etici dell’intelligenza artificiale attraverso una progettazione responsabile focalizzata su infrastrutture critiche e casi d’uso ad alto rischio. “(Volevamo) creare qualcosa di appositamente rinforzato per infrastrutture più critiche, lavoratori essenziali e attività più serie”, ha spiegato Jablokov.

Un elemento chiave è offrire alle aziende flessibilità e controllo sui propri ambienti dati. “Diamo loro la possibilità di scegliere in termini di modalità di utilizzo delle loro piattaforme… dal cloud pubblico multi-tenant, al cloud privato, fino a quello on-premise”, ha affermato Jablokov. Ciò consente alle organizzazioni di proteggere i dati altamente sensibili dietro i propri firewall quando necessario.

Pryon enfatizza anche l’intelligenza artificiale spiegabile e l’attribuzione verificabile delle fonti di conoscenza. “Quando la nostra piattaforma rivela una risposta, puoi toccarla e va sempre alla pagina sottostante ed evidenzia esattamente da dove ha appreso un'informazione”, ha descritto Jablokov. Ciò consente la convalida umana della provenienza della conoscenza.

In alcuni ambiti, come quello energetico, manifatturiero e sanitario, Pryon ha implementato la supervisione human-in-the-loop prima che le linee guida generate dall'intelligenza artificiale vengano fornite ai lavoratori in prima linea. Jablokov ha citato un esempio in cui “i supervisori possono ricontrollare i risultati e sostanzialmente dargli un distintivo di approvazione” prima che le informazioni raggiungano i tecnici.

Garantire uno sviluppo responsabile dell’IA

Jablokov sostiene fortemente la creazione di nuovi quadri normativi per garantire lo sviluppo e l’implementazione responsabile dell’IA. Pur accogliendo con favore i recenti fatti della Casa Bianca ordine esecutivo Per cominciare, ha espresso preoccupazione per i rischi legati all’intelligenza artificiale generativa come allucinazioni, dati di addestramento statici, vulnerabilità alla fuga di dati, mancanza di controlli di accesso, problemi di copyright e altro ancora.

Pryon è stata attivamente coinvolta in queste discussioni normative. “Stiamo canalizzandoci verso un caos di agenzie governative”, ha detto Jablokov. “Stiamo assumendo un ruolo attivo nel fornire il nostro punto di vista sull'ambiente normativo man mano che si sviluppa… Ci presentiamo esprimendo alcuni dei rischi associati all'utilizzo dell'intelligenza artificiale generativa.”

Sul potenziale di un “rischio IA” esistenziale ed incontrollato – come è stato messo in guardia da alcuni leader dell’IA – Jablokov ha usato un tono relativamente ottimista riguardo all'approccio governato di Pryon: “Abbiamo sempre lavorato verso un'attribuzione verificabile… estraendo dai contenuti delle aziende in modo che capiscano da dove provengono le soluzioni e poi decidano se prendere una decisione con farlo o no.”

Il CEO ha fermamente allontanato la missione di Pryon dal gruppo emergente di assistenti di intelligenza artificiale conversazionali a tempo indeterminato, alcuni dei quali hanno sollevato polemiche sulle allucinazioni e sulla mancanza di vincoli etici.

“Non siamo un college per clown. Le nostre cose sono progettate per entrare in alcuni degli ambienti più pericolosi del pianeta Terra”, ha affermato senza mezzi termini Jablokov. “Penso che nessuno di voi si sentirebbe a proprio agio nel finire in un pronto soccorso e avere i medici lì che digitano domande in un ChatGPT, un Bing, un Bard…”

Ha sottolineato l’importanza della competenza in materia e dell’intelligenza emotiva quando si tratta di processi decisionali ad alto rischio nel mondo reale. “Vuoi qualcuno che, si spera, abbia molti anni di esperienza nel trattamento di cose simili al disturbo che stai soffrendo attualmente. E indovina cosa? Ti piace il fatto che ci sia una qualità emotiva per cui anche loro si preoccupano di farti migliorare.

Al prossimo Fiera dell'intelligenza artificiale e dei big dataPryon svelerà nuovi casi d'uso aziendali mostrando la sua piattaforma in settori quali energia, semiconduttori, prodotti farmaceutici e governo. Jablokov ha anticipato che riveleranno anche “diversi modi per utilizzare la piattaforma Pryon” oltre l'offerta aziendale end-to-end, incluso l'accesso potenzialmente di livello inferiore per gli sviluppatori.

Poiché il dominio dell’intelligenza artificiale si espande rapidamente da applicazioni ristrette a capacità più generali, affrontare i rischi etici diventerà ancora più critico. L’attenzione costante di Pryon alla governance, alle fonti di conoscenza verificabili, alla supervisione umana e alla collaborazione con le autorità di regolamentazione potrebbe offrire un modello per uno sviluppo dell’IA più responsabile in tutti i settori.

Di seguito puoi guardare la nostra intervista completa con Igor Jablokov:

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, Fiera dell'intelligenza artificiale e dei big data, fiera dell'intelligenza artificiale e dei big data, intelligenza artificiale, etica, allucinazioni, Igor Jablokov, regolamento, responsabile ai, sicurezza, TechEx

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *