Ex Staff reclamo il profitto dell'avidità che tradisce la sicurezza dell'intelligenza artificiale

 | Intelligenza-Artificiale

Il rapporto “The Openi Files”, assemblaggio di voci di ex-staff interessato, afferma che il più importante laboratorio di AI del mondo sta tradendo la sicurezza per profitto. Quella che è iniziata come una nobile ricerca per garantire che l'IA avrebbe servito tutta l'umanità è ormai brulicante sul limite di diventare solo un altro gigante aziendale, inseguendo profitti immensi lasciando la sicurezza ed etica nella polvere.

Al centro di tutto è un piano per strappare il regolamento originale. Quando è iniziata Openai, ha fatto una promessa cruciale: ha mantenuto un limite a quanti soldi potrebbero fare gli investitori. Era una garanzia legale che se fossero riusciti a creare un'intelligenza artificiale che cambiano il mondo, i vasti benefici fluirebbero verso l'umanità, non solo una manciata di miliardari. Ora, quella promessa è sul punto di essere cancellata, apparentemente per soddisfare gli investitori che desiderano rendimenti illimitati.

Per le persone che hanno costruito Openai, questo perno lontano dalla sicurezza dell'IA sembra un profondo tradimento. “La missione senza scopo di lucro è stata una promessa di fare la cosa giusta quando la posta in gioco è stata alta”, afferma Carolll Wainwright, ex membro dello staff. “Ora che la posta in gioco è alta, la struttura senza scopo di lucro viene abbandonata, il che significa che la promessa era in definitiva vuota.”

Approfondire la crisi della fiducia

Molte di queste voci profondamente preoccupate indicano una persona: il CEO Sam Altman. Le preoccupazioni non sono nuove. I rapporti suggeriscono che anche nelle sue precedenti aziende, i colleghi senior hanno cercato di rimuoverlo per quello che chiamavano comportamenti “ingannevoli e caotici”.

Quella stessa sensazione di sfiducia lo seguì per Openi. Il co-fondatore dell'azienda, Ilya Sutskever, che ha lavorato al fianco di Altman per anni e da allora ha lanciato la sua startupÈ arrivato a una conclusione agghiacciante: “Non credo che Sam sia il ragazzo che dovrebbe avere il dito sul pulsante per AGI.” Sentiva che Altman fosse disonesto e creò il caos, una combinazione terrificante per qualcuno potenzialmente responsabile del nostro futuro collettivo.

Mira Murati, l'ex CTO, si sentiva altrettanto a disagio. “Non mi sento a mio agio con Sam che ci porta all'AGI”, ha detto. Descrisse un modello tossico in cui Altman avrebbe detto alla gente cosa volevano sentire e poi minarli se si mettessero sulla sua strada. Suggerisce la manipolazione che l'ex membro del consiglio di amministrazione di Openi Tasha McCauley afferma che “dovrebbe essere inaccettabile” quando la posta in gioco dell'IA è così alta.

Questa crisi di fiducia ha avuto conseguenze nel mondo reale. Gli addetti ai lavori affermano che la cultura di Openi si è spostata, con il lavoro cruciale di sicurezza dell'IA che ha fatto un sedile posteriore per rilasciare “prodotti luccicanti”. Jan Leike, che ha guidato la squadra responsabile della sicurezza a lungo termine, ha dichiarato di “navigare contro il vento”, lottando per ottenere le risorse di cui avevano bisogno per fare la loro ricerca vitale.

Tweet dell'ex dipendente di Openi Jan Leike in merito ai file di Openi che condividono preoccupazioni sull'impatto sulla sicurezza dell'intelligenza artificiale nel perno verso il profitto.

Un altro ex dipendente, William Saunders, ha persino dato una terrificante testimonianza al Senato degli Stati Uniti, rivelando che per lunghi periodi, la sicurezza era così debole che centinaia di ingegneri avrebbe potuto rubare L'intelligenza artificiale più avanzata dell'azienda, incluso GPT-4.

Approfondimento disperato di dare la priorità alla sicurezza dell'IA ad Openi

Ma quelli che se ne sono andati non si stanno solo allontanando. Hanno disposto una tabella di marcia per ritirare Openai da The Brink, uno sforzo dell'ultimo fossato per salvare la missione originale.

Stanno chiedendo che il cuore senza scopo di lucro dell'azienda venga dato di nuovo un vero potere, con un veto vestito di ferro rispetto alle decisioni di sicurezza. Stanno chiedendo una leadership chiara e onesta, che include un'indagine nuova e approfondita sulla condotta di Sam Altman.

Vogliono una supervisione reale e indipendente, quindi Openi non può semplicemente segnare i propri compiti sulla sicurezza dell'IA. E stanno supplicando una cultura in cui le persone possono parlare delle loro preoccupazioni senza temere per il loro lavoro o il loro risparmio, un posto con vera protezione per gli informatori.

Infine, stanno insistendo sul fatto che Openi si attenga alla sua promessa finanziaria originale: i limiti di profitto devono rimanere. L'obiettivo deve essere un vantaggio pubblico, non una ricchezza privata illimitata.

Non si tratta solo del dramma interno in una società della Silicon Valley. Openi sta costruendo una tecnologia che potrebbe rimodellare il nostro mondo in modi che possiamo a malapena immaginare. La domanda che i suoi ex dipendenti stanno costringendo tutti noi a porre è semplice ma profonda: di chi ci fidiamo di costruire il nostro futuro?

Come ha avvertito l'ex membro del consiglio di amministrazione di Helen Toner, “i guardrail interni sono fragili quando il denaro è in linea”.

In questo momento, le persone che conoscono meglio Openi ci stanno dicendo che quei guardrail di sicurezza hanno quasi rotto.

Vedi anche: AI Adozione matura ma rimangono ostacoli di distribuzione

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *