Come i vertici di Seul, in Francia e altrove, possono galvanizzare la cooperazione internazionale sulla sicurezza dell’intelligenza artificiale di frontiera

L’anno scorso, il governo del Regno Unito ha ospitato a Bletchley Park il primo grande vertice globale sulla sicurezza dell’intelligenza artificiale di frontiera. Ha focalizzato l’attenzione del mondo sui rapidi progressi alla frontiera dello sviluppo dell’intelligenza artificiale e ha fornito un’azione internazionale concreta per rispondere ai potenziali rischi futuri, tra cui Dichiarazione di Bletchley; nuovi Istituti per la Sicurezza dell’IA; e il Rapporto scientifico internazionale sulla sicurezza avanzata dell'IA.

A sei mesi da Bletchley, la comunità internazionale ha l'opportunità di sfruttare questo slancio e galvanizzare ulteriormente la cooperazione globale in occasione del vertice AI Seoul di questa settimana. Di seguito condividiamo alcune riflessioni su come il vertice – e quelli futuri – possano guidare i progressi verso un approccio comune e globale alla sicurezza dell’IA di frontiera.

Le capacità dell’intelligenza artificiale hanno continuato ad avanzare a un ritmo rapido

Da Bletchley si sono verificati forti innovazioni e progressi in tutto il campo, compreso Google DeepMind. L'intelligenza artificiale continua a guidare scoperte in ambiti scientifici critici, con il nostro nuovo AlphaFold 3 modello che prevede la struttura e le interazioni di tutte le molecole della vita con una precisione senza precedenti. Questo lavoro aiuterà a trasformare la nostra comprensione del mondo biologico e ad accelerare la scoperta di farmaci. Allo stesso tempo, il ns Famiglia di modelli Gemini hanno già reso più utili e accessibili i prodotti utilizzati da miliardi di persone in tutto il mondo. Abbiamo anche lavorato per migliorare il modo in cui i nostri modelli percepiscono, ragionano e interagiscono e recentemente abbiamo condiviso i nostri progressi nella costruzione del futuro degli assistenti IA con Progetto Astra.

Questo progresso sulle capacità dell’intelligenza artificiale promette di migliorare la vita di molte persone, ma solleva anche nuove domande che devono essere affrontate in modo collaborativo in una serie di settori chiave della sicurezza. Google DeepMind sta lavorando per identificare e affrontare queste sfide attraverso ricerche pionieristiche sulla sicurezza. Solo negli ultimi mesi, abbiamo condiviso il nostro approccio in evoluzione allo sviluppo di un insieme olistico di valutazioni di sicurezza e responsabilità per i nostri modelli avanzati, tra cui prime ricerche valutare capacità critiche come l’inganno, la sicurezza informatica, l’autoproliferazione e l’autoragionamento. Abbiamo anche pubblicato un'esplorazione approfondita allineando i futuri assistenti IA avanzati con i valori e gli interessi umani. Oltre ai LLM, abbiamo recentemente condiviso il nostro approccio biosicurezza per AlphaFold 3.

Questo lavoro è guidato dalla nostra convinzione che dobbiamo innovare sulla sicurezza e sulla governance con la stessa rapidità con cui innoviamo sulle capacità – e che entrambe le cose devono essere fatte in tandem, informandosi e rafforzandosi continuamente a vicenda.

Costruire un consenso internazionale sui rischi dell’IA di frontiera

Massimizzare i benefici dei sistemi avanzati di IA richiede la creazione di un consenso internazionale su questioni cruciali per la sicurezza alle frontiere, compresa l’anticipazione e la preparazione a nuovi rischi oltre a quelli posti dai modelli attuali. Tuttavia, dato l’elevato grado di incertezza su questi potenziali rischi futuri, vi è una chiara richiesta da parte dei politici di una visione indipendente e scientificamente fondata.

Ecco perché il lancio del nuovo interinale Rapporto scientifico internazionale sulla sicurezza dell'intelligenza artificiale avanzata è una componente importante del vertice AI Seoul e non vediamo l'ora di presentare le prove della nostra ricerca entro la fine dell'anno. Nel corso del tempo, questo tipo di impegno potrebbe diventare un input centrale per il processo del vertice e, in caso di successo, riteniamo che dovrebbe ricevere uno status più permanente, vagamente modellato sulla funzione del Gruppo intergovernativo sui cambiamenti climatici. Ciò rappresenterebbe un contributo vitale alla base di prove di cui i politici di tutto il mondo hanno bisogno per orientare l’azione internazionale.

Riteniamo che questi vertici sull’intelligenza artificiale possano fornire un forum regolare dedicato alla costruzione del consenso internazionale e di un approccio comune e coordinato alla governance. Mantenere un focus unico sulla sicurezza delle frontiere garantirà inoltre che queste riunioni siano complementari e non duplicative rispetto ad altri sforzi di governance internazionale.

Stabilire le migliori pratiche nelle valutazioni e un quadro di governance coerente

Le valutazioni sono una componente fondamentale necessaria per informare le decisioni sulla governance dell’IA. Ci consentono di misurare le capacità, il comportamento e l’impatto di un sistema di intelligenza artificiale e rappresentano un input importante per la valutazione del rischio e la progettazione di mitigazioni adeguate. Tuttavia, la scienza delle valutazioni della sicurezza dell’IA di frontiera è ancora all’inizio del suo sviluppo.

Questo è il motivo per cui il Forum sul modello di frontiera (FMF), che Google ha lanciato con altri importanti laboratori di intelligenza artificiale, sta collaborando con gli istituti per la sicurezza dell'intelligenza artificiale negli Stati Uniti e nel Regno Unito e con altre parti interessate sulle migliori pratiche per la valutazione dei modelli di frontiera. I vertici sull’intelligenza artificiale potrebbero aiutare a estendere questo lavoro a livello internazionale e contribuire a evitare un mosaico di test nazionali e regimi di governance che sono duplicati o in conflitto tra loro. È fondamentale evitare la frammentazione che potrebbe inavvertitamente danneggiare la sicurezza o l'innovazione.

Gli istituti di sicurezza AI degli Stati Uniti e del Regno Unito hanno già concordato costruire un approccio comune ai test di sicurezza, un primo passo importante verso un maggiore coordinamento. Riteniamo che nel tempo vi sia l’opportunità di costruire su questa base verso un approccio comune e globale. Una priorità iniziale del vertice di Seul potrebbe essere quella di concordare una tabella di marcia affinché un’ampia gamma di attori collaborino allo sviluppo e alla standardizzazione di parametri e approcci di valutazione dell’IA di frontiera.

Sarà inoltre importante sviluppare quadri condivisi per la gestione del rischio. Per contribuire a queste discussioni, abbiamo recentemente introdotto la prima versione del ns Quadro di sicurezza delle frontiereuna serie di protocolli per identificare in modo proattivo le future capacità dell’intelligenza artificiale che potrebbero causare gravi danni e mettere in atto meccanismi per rilevarli e mitigarli. Ci aspettiamo che il Framework si evolva in modo significativo man mano che impariamo dalla sua implementazione, approfondiamo la nostra comprensione dei rischi e delle valutazioni dell’IA e collaboriamo con l’industria, il mondo accademico e il governo. Nel corso del tempo, speriamo che la condivisione dei nostri approcci faciliti il ​​lavoro con altri per concordare standard e migliori pratiche per valutare la sicurezza delle future generazioni di modelli di intelligenza artificiale.

Verso un approccio globale per la sicurezza dell’IA di frontiera

Molti dei rischi potenziali che potrebbero derivare dai progressi alla frontiera dell’intelligenza artificiale sono di natura globale. Mentre ci dirigiamo al vertice sull’IA di Seul e guardiamo avanti ai futuri vertici in Francia e oltre, siamo entusiasti dell’opportunità di promuovere la cooperazione globale sulla sicurezza dell’IA di frontiera. La nostra speranza è che questi vertici costituiscano un forum dedicato per progredire verso un approccio comune e globale. Ottenere questo risultato è un passo fondamentale verso gli enormi vantaggi dell’intelligenza artificiale per la società.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *