La velocità e la sicurezza possono coesistere davvero nella gara dell'IA?

 | Intelligenza-Artificiale

Una critica sulla sicurezza dell'IA da un Aperto Il ricercatore mirato a un rivale ha aperto una finestra sulla lotta del settore: una battaglia contro se stessa.

È iniziato con un avvertimento di Boaz Barak, un professore di Harvard attualmente in congedo e ha lavorato sulla sicurezza di Openi. Ha chiamato il lancio di Xai Grok Modello “completamente irresponsabile”, non per le sue buffonate che catturano il titolo, ma a causa di ciò che mancava: una carta del sistema pubblico, valutazioni dettagliate sulla sicurezza, i manufatti di base della trasparenza che sono diventati la norma fragile.

Era una chiamata chiara e necessaria. Ma una sindacale riflessione, pubblicata solo tre settimane dopo aver lasciato la compagnia, dall'ex ingegnere Openai Calvin French-Owen, ci mostra l'altra metà della storia.

Il racconto di French-Owen suggerisce che un gran numero di persone di Openi si sta davvero lavorando sulla sicurezza, concentrandosi su minacce molto reali come discorsi di odio, armi biologiche e autolesionismo. Tuttavia, fornisce l'intuizione: “La maggior parte del lavoro svolto non è pubblicato”, ha scritto, aggiungendo che Openi “dovrebbe davvero fare di più per farlo uscire”.

Qui, la semplice narrativa di un buon attore che rimprovera uno cattivo crolla. Al suo posto, vediamo il dilemma reale a livello di settore messo a nudo. L'intera industria dell'intelligenza artificiale è catturata nel “paradosso della velocità di sicurezza”, un profondo conflitto strutturale tra la necessità di muoversi a velocità di rottura per competere e la necessità morale di muoversi con cautela per proteggerci.

French-Owen suggerisce che Openi è in uno stato di caos controllato, dopo aver triplicato il suo personale a oltre 3.000 in un solo anno, dove “tutto si rompe quando si ridimensiona così rapidamente”. Questa energia caotica è incanalata dall'immensa pressione di una “gara a tre cavalli” contro l'AGI contro Google E Antropico. Il risultato è una cultura di velocità incredibile, ma anche di segretezza.

Considera la creazione di CodiceL'agente di codifica di Openai. French-Owen definisce il progetto uno “folle sprint”, in cui un piccolo team ha costruito un prodotto rivoluzionario da zero in sole sette settimane.

Questo è un esempio di libri di testo di velocità; Descrivere il lavoro fino a mezzanotte quasi tutte le sere e anche durante i fine settimana per farlo accadere. Questo è il costo umano di quella velocità. In un ambiente che si muove così velocemente, c'è da meravigliarsi che il lavoro lento e metodico della pubblicazione della ricerca sulla sicurezza dell'IA sembra una distrazione dalla gara?

Questo paradosso non è nato da malizia, ma da una serie di forze potenti e intrecciate.

C'è l'ovvia pressione competitiva per essere prima. C'è anche il DNA culturale di questi laboratori, che è iniziato come gruppi sciolti di “scienziati e armeggi” e scoperte che spostano il valore sui processi metodici. E c'è un semplice problema di misurazione: è facile quantificare la velocità e le prestazioni, ma eccezionalmente difficile quantificare un disastro che è stato impedito con successo.

Nelle sale del consiglio di amministrazione di oggi, le metriche visibili della velocità urleranno quasi sempre più forte dei successi invisibili della sicurezza. Tuttavia, per andare avanti, non si può riguardare le dita di puntare: deve essere il cambiamento delle regole fondamentali del gioco.

Dobbiamo ridefinire cosa significa spedire un prodotto, rendendo la pubblicazione di un caso di sicurezza integrale come il codice stesso. Abbiamo bisogno di standard a livello di settore che impediscano a qualsiasi singola azienda di essere punita in modo competitivo per la sua diligenza, trasformando la sicurezza da una funzione in una base condivisa e non negoziabile.

Tuttavia, soprattutto, dobbiamo coltivare una cultura all'interno dei laboratori di AI in cui ogni ingegnere – non solo il dipartimento di sicurezza – sente un senso di responsabilità.

La gara per creare AGI non riguarda chi ci arriva per primo; Si tratta di come arriviamo. Il vero vincitore non sarà l'azienda che è semplicemente la più veloce, ma quella che dimostra a un mondo che guarda che l'ambizione e la responsabilità possono e devono andare avanti insieme.

(Foto di Olamigoke Jr.)

Vedi anche: Contratti di intelligenza artificiale militare assegnati ad antropici, Openai, Google e XAI

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *