OpenAI sta affrontando un’ondata di conflitti interni e critiche esterne sulle sue pratiche e sui potenziali rischi posti dalla sua tecnologia.

A maggio, diversi dipendenti di alto profilo hanno lasciato l'azienda, tra cui Jan Leike, l'ex capo degli sforzi di “super allineamento” di OpenAI per garantire che i sistemi avanzati di intelligenza artificiale rimangano allineati ai valori umani. L'uscita di Leike è avvenuta poco dopo che OpenAI ha presentato il suo nuovo modello di punta GPT-4o, che ha pubblicizzato come “magico” durante l'evento di aggiornamento di primavera.

Secondo i rapporti, la partenza di Leike è stata guidata da continui disaccordi sulle misure di sicurezza, sulle pratiche di monitoraggio e sulla priorità data al rilascio di prodotti appariscenti rispetto alle considerazioni sulla sicurezza.

L'uscita di Leike ha aperto un vaso di Pandora per l'azienda di intelligenza artificiale. Gli ex membri del consiglio di amministrazione di OpenAI si sono fatti avanti con accuse di abusi psicologici contro il CEO Sam Altman e la leadership dell'azienda.

Il crescente tumulto interno a OpenAI coincide con le crescenti preoccupazioni esterne sui potenziali rischi posti dalla tecnologia di intelligenza artificiale generativa come i modelli linguistici dell’azienda. I critici hanno messo in guardia sull’imminente minaccia esistenziale dell’intelligenza artificiale avanzata che supera le capacità umane, nonché su rischi più immediati come lo spostamento di posti di lavoro e l’utilizzo dell’intelligenza artificiale come arma per campagne di disinformazione e manipolazione.

In risposta, un gruppo di attuali ed ex dipendenti di OpenAI, Anthropic, DeepMind e altre importanti società di intelligenza artificiale hanno scritto una lettera aperta affrontando questi rischi.

“Siamo attuali ed ex dipendenti di aziende di frontiera dell’intelligenza artificiale e crediamo nel potenziale della tecnologia AI di offrire benefici senza precedenti all’umanità. Comprendiamo anche i gravi rischi posti da queste tecnologie”, si legge nella lettera.

“Questi rischi vanno dall’ulteriore radicamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, alla perdita di controllo dei sistemi di intelligenza artificiale autonomi, con conseguente potenziale estinzione umana. Le stesse aziende di intelligenza artificiale hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di intelligenza artificiale”.

La lettera, firmata da 13 dipendenti e approvata dai pionieri dell'intelligenza artificiale Yoshua Bengio e Geoffrey Hinton, delinea quattro richieste fondamentali volte a proteggere gli informatori e a promuovere maggiore trasparenza e responsabilità riguardo allo sviluppo dell'intelligenza artificiale:

  1. Che le aziende non applicheranno clausole di non denigrazione né faranno ritorsioni contro i dipendenti che sollevano preoccupazioni relative al rischio.
  2. Le aziende faciliteranno un processo anonimo verificabile affinché i dipendenti possano sollevare preoccupazioni a consigli di amministrazione, regolatori ed esperti indipendenti.
  3. Le aziende sosterranno una cultura di critica aperta e consentiranno ai dipendenti di condividere pubblicamente le preoccupazioni relative ai rischi, con un’adeguata protezione dei segreti commerciali.
  4. Le aziende non effettueranno ritorsioni contro i dipendenti che condividono informazioni riservate relative ai rischi dopo che altri processi hanno fallito.

“Loro e altri hanno accettato l'approccio 'muoviti velocemente e rompi le cose' e questo è l'opposto di ciò che è necessario per una tecnologia così potente e così poco compresa”, ha affermato Daniel Kokotajlo, un ex dipendente di OpenAI che ha lasciato a causa delle preoccupazioni per il valori aziendali e mancanza di responsabilità.

Le richieste arrivano in seguito alle notizie secondo cui OpenAI ha costretto i dipendenti in partenza a firmare accordi di non divulgazione impedendo loro di criticare l'azienda o di rischiare di perdere il proprio capitale acquisito. Il CEO di OpenAI, Sam Altman, ha ammesso di essere “imbarazzato” dalla situazione, ma ha affermato che la società non ha mai effettivamente recuperato il capitale investito di nessuno.

Mentre la rivoluzione dell’intelligenza artificiale avanza, i conflitti interni e le richieste degli informatori di OpenAI sottolineano i crescenti problemi e i dilemmi etici irrisolti che circondano la tecnologia.

Guarda anche: OpenAI interrompe cinque operazioni di influenza segrete

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, antropico, intelligenza artificiale, mente profonda, etica, openai, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *