Approfondimento della ricerca sulla sicurezza dell’intelligenza artificiale con l’AI Security Institute (AISI) del Regno Unito

 | Intelligenza-Artificiale

Oggi annunciamo una partnership ampliata con Istituto britannico per la sicurezza AI (AISI) attraverso un nuovo memorandum d’intesa incentrato sulla sicurezza fondamentale e sulla ricerca sulla protezione, per contribuire a garantire che l’intelligenza artificiale venga sviluppata in modo sicuro e avvantaggi tutti.

La partnership di ricerca con l’AISI è una parte importante della nostra collaborazione più ampia con il governo del Regno Unito per accelerare il progresso sicuro e vantaggioso dell’IA.

Costruire su una base di collaborazione

L’intelligenza artificiale ha un immenso potenziale a beneficio dell’umanità aiutando a curare le malattie, ad accelerare la scoperta scientifica, a creare prosperità economica e ad affrontare il cambiamento climatico. Affinché questi benefici si realizzino, dobbiamo mettere la sicurezza e la responsabilità al centro dello sviluppo. La valutazione dei nostri modelli rispetto a un ampio spettro di rischi potenziali rimane una parte fondamentale della nostra strategia di sicurezza e le partnership esterne sono un elemento importante di questo lavoro.

Questo è il motivo per cui collaboriamo con l’AISI del Regno Unito sin dal suo inizio nel novembre 2023 per testare i nostri modelli più capaci. Siamo profondamente impegnati nei confronti degli AISI del Regno Unito obiettivo fornire ai governi, all’industria e alla società in generale una comprensione scientifica dei potenziali rischi posti dall’intelligenza artificiale avanzata, nonché delle potenziali soluzioni e mitigazioni.

Stiamo lavorando attivamente con l’AISI per creare valutazioni più solide per i modelli di intelligenza artificiale e i nostri team hanno collaborato alla ricerca sulla sicurezza per far avanzare il campo, compreso il recente lavoro su Monitorabilità della catena di pensiero: una nuova e fragile opportunità per la sicurezza dell’intelligenza artificiale. Basandosi su questo successo, oggi stiamo ampliando la nostra partnership dalla sperimentazione per includere una ricerca più ampia e fondamentale in una varietà di aree.

Cosa prevede la partnership

Nell’ambito di questa nuova partnership di ricerca, stiamo ampliando la nostra collaborazione per includere:

  • Condividere l’accesso ai nostri modelli, dati e idee proprietari per accelerare il progresso della ricerca
  • Rapporti e pubblicazioni congiunti che condividono i risultati con la comunità di ricerca
  • Una ricerca più collaborativa sulla sicurezza e sulla protezione che unisce le competenze dei nostri team
  • Discussioni tecniche per affrontare sfide complesse in materia di sicurezza

Principali aree di ricerca

La nostra ricerca congiunta con AISI si concentra su aree critiche in cui l’esperienza di Google DeepMind, i team interdisciplinari e anni di ricerca responsabile e pionieristica possono contribuire a rendere i sistemi di intelligenza artificiale più sicuri e protetti:

Monitoraggio dei processi di ragionamento dell’IA

Lavoreremo su tecniche per monitorare il “pensiero” di un sistema di intelligenza artificiale, comunemente chiamato anche catena di pensiero (CoT). Questo lavoro si basa su precedente ricerca di Google DeepMind così, e il nostro recente collaborazione su questo tema con AISI, OpenAI, Anthropic e altri partner. Il monitoraggio CoT ci aiuta a capire come un sistema di intelligenza artificiale produce le sue risposte, integrando la ricerca sull’interpretabilità.

Comprendere gli impatti sociali ed emotivi

Lavoreremo insieme per indagare le implicazioni etiche del disallineamento socioaffettivo; ovvero, la possibilità che i modelli di intelligenza artificiale si comportino in modi che non sono in linea con il benessere umano, anche quando tecnicamente seguono correttamente le istruzioni. Questa ricerca si baserà su lavoro esistente di Google DeepMind che ha contribuito a definire quest’area critica della sicurezza dell’IA.

Valutare i sistemi economici

Esploreremo il potenziale impatto dell’intelligenza artificiale sui sistemi economici simulando attività del mondo reale in diversi ambienti. Gli esperti valuteranno e convalideranno questi compiti, dopodiché verranno classificati in base a dimensioni come la complessità o la rappresentatività, per aiutare a prevedere fattori come l’impatto a lungo termine sul mercato del lavoro.

Lavorare insieme per realizzare i vantaggi dell’intelligenza artificiale

La nostra partnership con AISI è un elemento del modo in cui miriamo a realizzare i benefici dell’intelligenza artificiale per l’umanità, mitigando al contempo i potenziali rischi. La nostra strategia più ampia comprende ricerche lungimiranti, una formazione approfondita sulla sicurezza che va di pari passo con lo sviluppo delle capacità, test rigorosi dei nostri modelli e lo sviluppo di migliori utensili E quadri per comprendere e mitigare il rischio.

Anche forti processi di governance interna sono essenziali per uno sviluppo sicuro e responsabile dell’IA, così come la collaborazione con esperti esterni indipendenti che apportano nuove prospettive e competenze diversificate al nostro lavoro. Di Google DeepMind Consiglio Responsabilità e Sicurezza lavora tra i team per monitorare i rischi emergenti, rivedere le valutazioni etiche e di sicurezza e implementare le pertinenti mitigazioni tecniche e politiche. Collaboriamo inoltre con altri esperti esterni come Apollo Research, Vaultis, Dreadnode e altri, per condurre test e valutazioni approfonditi dei nostri modelli, incluso Gemini 3, il nostro modello più intelligente e sicuro fino ad oggi.

Inoltre, Google DeepMind è un orgoglioso membro fondatore di Forum sul modello di frontieracosì come il Partenariato sull’intelligenza artificialedove ci concentriamo sulla garanzia di uno sviluppo sicuro e responsabile di modelli di intelligenza artificiale di frontiera e sull’aumento della collaborazione su importanti questioni di sicurezza.

Ci auguriamo che la nostra partnership ampliata con AISI ci consenta di costruire approcci più solidi alla sicurezza dell’IA a vantaggio non solo delle nostre stesse organizzazioni, ma anche dell’industria in generale e di tutti coloro che interagiscono con i sistemi di intelligenza artificiale.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *