Riflessioni e lezioni sulla condivisione di una delle nostre più grandi scoperte con il mondo

Mettere in pratica la nostra missione di risolvere l’intelligenza per far avanzare la scienza e apportare benefici all’umanità comporta responsabilità cruciali. Per contribuire a creare un impatto positivo per la società, dobbiamo valutare proattivamente le implicazioni etiche della nostra ricerca e delle sue applicazioni in modo rigoroso e attento. Sappiamo anche che ogni nuova tecnologia può potenzialmente causare danni e prendiamo sul serio i rischi a lungo e breve termine. Fin dall’inizio abbiamo costruito le nostre basi su un approccio pionieristico responsabile, con particolare attenzione alla governance, alla ricerca e all’impatto responsabili.

Ciò inizia con la definizione di principi chiari che aiutano a realizzare i vantaggi dell’intelligenza artificiale (AI), mitigandone al tempo stesso i rischi e i potenziali risultati negativi. Essere pionieri in modo responsabile è uno sforzo collettivo, motivo per cui abbiamo contribuito a molti standard della comunità AI, come quelli sviluppati da GoogleIL Partenariato sull’intelligenza artificialee il OCSE (Organizzazione per la cooperazione e lo sviluppo economico).

Nostro Principi di funzionamento sono arrivati ​​a definire sia il nostro impegno a dare priorità ai benefici diffusi, sia le aree di ricerca e le applicazioni che ci rifiutiamo di perseguire. Questi principi sono stati al centro del nostro processo decisionale sin dalla fondazione di DeepMind e continuano a essere perfezionati man mano che il panorama dell’intelligenza artificiale cambia e cresce. Sono progettati per il nostro ruolo di azienda scientifica orientata alla ricerca e coerenti con i principi di intelligenza artificiale di Google.

Dai principi alla pratica

I principi scritti sono solo una parte del puzzle: il modo in cui vengono messi in pratica è fondamentale. Per la ricerca complessa condotta alle frontiere dell’intelligenza artificiale, ciò comporta sfide significative: come possono i ricercatori prevedere potenziali benefici e danni che potrebbero verificarsi in un lontano futuro? Come possiamo sviluppare una migliore previsione etica da un’ampia gamma di prospettive? E cosa è necessario esplorare questioni difficili insieme al progresso scientifico in tempo reale per prevenire conseguenze negative?

Abbiamo trascorso molti anni a sviluppare le nostre competenze e processi per la governance, la ricerca e l’impatto responsabili in DeepMind, dalla creazione di toolkit interni e la pubblicazione di documenti su questioni sociotecniche al sostegno degli sforzi per aumentare la riflessione e la previsione nel campo dell’intelligenza artificiale. Per aiutare i team di DeepMind a svolgere un ruolo pionieristico responsabile e a salvaguardarsi dai danni, il nostro comitato interdisciplinare di revisione istituzionale (IRC) si riunisce ogni due settimane per valutare attentamente progetti, documenti e collaborazioni di DeepMind.

Essere pionieri in modo responsabile è un muscolo collettivo e ogni progetto è un’opportunità per rafforzare le nostre capacità e conoscenze comuni. Abbiamo progettato attentamente il nostro processo di revisione per includere esperti a rotazione provenienti da un’ampia gamma di discipline, con ricercatori di machine learning, esperti di etica ed esperti di sicurezza che siedono accanto a ingegneri, esperti di sicurezza, professionisti delle politiche e altro ancora. Queste voci diverse identificano regolarmente modi per espandere i vantaggi delle nostre tecnologie, suggeriscono aree di ricerca e applicazioni da modificare o rallentare ed evidenziano progetti in cui è necessaria ulteriore consultazione esterna.

Anche se abbiamo fatto molti progressi, molti aspetti si trovano in un territorio inesplorato. Non riusciremo a farlo bene ogni volta e ci impegniamo per l’apprendimento e l’iterazione continui. Ci auguriamo che la condivisione del nostro processo attuale sia utile ad altri che lavorano sull’intelligenza artificiale responsabile e incoraggi il feedback mentre continuiamo ad apprendere, motivo per cui abbiamo riflessioni dettagliate e lezioni da uno dei nostri progetti più complessi e gratificanti: AlphaFold. Il nostro sistema di intelligenza artificiale AlphaFold ha risolto la sfida di 50 anni della previsione della struttura delle proteine ​​e siamo stati entusiasti di vedere gli scienziati usarlo per accelerare il progresso in campi come la sostenibilità, la sicurezza alimentare, la scoperta di farmaci e la biologia umana fondamentale da quando è stato rilasciato alla comunità più ampia lo scorso anno.

Concentrandosi sulla previsione della struttura delle proteine

Il nostro team di ricercatori, biologi e ingegneri nel campo dell’apprendimento automatico vede da tempo il problema del ripiegamento delle proteine ​​come un’opportunità straordinaria e unica per consentire ai sistemi di apprendimento dell’intelligenza artificiale di creare un impatto significativo. In questo ambito esistono misure standard di successo o fallimento e un confine chiaro su ciò che il sistema di intelligenza artificiale deve fare per aiutare gli scienziati nel loro lavoro: prevedere la struttura tridimensionale di una proteina. E, come con molti sistemi biologici, il ripiegamento delle proteine ​​è troppo complesso perché qualcuno possa scrivere le regole su come funziona. Ma un sistema di intelligenza artificiale potrebbe essere in grado di apprendere tali regole da solo.

Un altro fattore importante è stata la valutazione biennale, nota come CASP (la valutazione critica della previsione della struttura delle proteine), che era fondata dal professor John Moult e dal professor Krzysztof Fidelis. Ad ogni incontro, CASP fornisce una valutazione eccezionalmente solida dei progressi, richiedendo ai partecipanti di prevedere strutture che sono state scoperte solo di recente attraverso esperimenti. I risultati sono un grande catalizzatore per una ricerca ambiziosa e per l’eccellenza scientifica.

Comprendere opportunità e rischi pratici

Mentre ci preparavamo per la valutazione CASP del 2020, ci siamo resi conto che AlphaFold mostrava un grande potenziale per risolvere la sfida imminente. Abbiamo dedicato molto tempo e sforzi ad analizzare le implicazioni pratiche, chiedendoci: come potrebbe AlphaFold accelerare la ricerca e le applicazioni biologiche? Quali potrebbero essere le conseguenze indesiderate? E come potremmo condividere i nostri progressi in modo responsabile?

Ciò presentava un’ampia gamma di opportunità e rischi da considerare, molti dei quali riguardavano aree in cui non avevamo necessariamente una forte esperienza. Abbiamo quindi cercato input esterni da oltre 30 leader nel settore della ricerca biologica, della biosicurezza, della bioetica, dei diritti umani e altro ancora, concentrandoci sulla diversità di competenze e background.

Durante queste discussioni sono emersi molti temi coerenti:

  1. Bilanciare i benefici diffusi con il rischio di danni. Abbiamo iniziato con una mentalità cauta riguardo al rischio di danni accidentali o intenzionali, incluso il modo in cui AlphaFold potrebbe interagire sia con i progressi futuri che con le tecnologie esistenti. Attraverso le nostre discussioni con esperti esterni, è diventato chiaro che AlphaFold non avrebbe reso significativamente più semplice causare danni con le proteine, dati i numerosi ostacoli pratici a ciò, ma che i progressi futuri dovranno essere valutati attentamente. Molti esperti hanno sostenuto con forza che AlphaFold, in quanto progresso rilevante per molte aree della ricerca scientifica, avrebbe il massimo beneficio attraverso un accesso libero e diffuso.
  2. Misure di confidenza accurate sono essenziali per un uso responsabile. I biologi sperimentali hanno spiegato quanto sarebbe importante comprendere e condividere parametri di confidenza ben calibrati e utilizzabili per ciascuna parte delle previsioni di AlphaFold. Segnalando quale delle previsioni di AlphaFold è probabile che sia accurata, gli utenti possono stimare quando possono fidarsi di una previsione e utilizzarla nel loro lavoro – e quando dovrebbero utilizzare approcci alternativi nella loro ricerca. Inizialmente avevamo preso in considerazione l’omissione delle previsioni per le quali AlphaFold aveva una bassa confidenza o un’elevata incertezza predittiva, ma gli esperti esterni che abbiamo consultato hanno dimostrato perché era particolarmente importante mantenere queste previsioni nel nostro comunicato e ci hanno consigliato i modi più utili e trasparenti per presentarle. informazione.
  3. Un vantaggio equo potrebbe significare un sostegno aggiuntivo per i settori sottofinanziati. Abbiamo discusso molto su come evitare di aumentare inavvertitamente le disparità all’interno della comunità scientifica. Ad esempio, il cosiddetto malattie tropicali trascurateche colpiscono in modo sproporzionato le zone più povere del mondo, spesso ricevono meno finanziamenti per la ricerca di quanto dovrebbero. Siamo stati fortemente incoraggiati a dare priorità al supporto pratico e a cercare in modo proattivo di collaborare con gruppi che lavorano in queste aree.

Stabilire il nostro approccio al rilascio

Sulla base dei suggerimenti di cui sopra, l’IRC ha approvato una serie di versioni di AlphaFold per soddisfare molteplici esigenze, tra cui:

  • Pubblicazioni sottoposte a peer review e codice open source, Compreso due documenti nella Natura, accompagnato da codice open sourceper consentire ai ricercatori di implementare e migliorare più facilmente AlphaFold. Subito dopo, abbiamo aggiunto a Google Co consentendo a chiunque di inserire una sequenza proteica e ricevere una struttura prevista, come alternativa all’esecuzione autonoma del codice open source.
  • Un importante rilascio di previsioni sulla struttura delle proteine in collaborazione con EMBL-EBI (Istituto Europeo di Bioinformatica dell’EMBL), il leader affermato della comunità. In quanto istituzione pubblica, EMBL-EBI consente a chiunque di cercare previsioni sulla struttura delle proteine ​​con la stessa facilità di una ricerca su Google. La versione iniziale includeva forme previste per ogni proteina del corpo umano e la nostra aggiornamento più recente includevano strutture previste per quasi tutte le proteine ​​catalogate conosciute dalla scienza. Si tratta di un totale di oltre 200 milioni di strutture, tutte disponibili gratuitamente sul sito web dell’EMBL-EBI con licenze ad accesso aperto, accompagnate da risorse di supporto, come webinar sull’interpretazione di queste strutture.
  • Integrazione di visualizzazioni 3D nel database, con etichette prominenti per le aree ad alta e bassa confidenza della previsione e, in generale, mirando a essere il più chiari possibile sui punti di forza e sui limiti di AlphaFold nella nostra documentazione. Abbiamo inoltre progettato il database in modo che sia il più accessibile possibile, tenendo conto, ad esempio, delle esigenze delle persone con deficit di visione dei colori.
  • Formare partenariati più profondi con gruppi di ricerca che lavorano su aree sottofinanziate, come le malattie trascurate e argomenti critici per la salute globale. Ciò comprende Non disturbare (Iniziativa Drugs for Neglected Disease), che sta portando avanti la ricerca sulla malattia di Chagas e sulla leishmaniosi, e il Centro per l’innovazione degli enzimi che sta sviluppando enzimi mangia-plastica per contribuire a ridurre i rifiuti di plastica nell’ambiente. I nostri crescenti team di coinvolgimento pubblico continuano a lavorare su queste partnership per supportare ulteriori collaborazioni in futuro.

Come stiamo sviluppando questo lavoro

Dalla nostra pubblicazione iniziale, centinaia di migliaia di persone provenienti da oltre 190 paesi hanno visitato il sito Database della struttura delle proteine ​​AlphaFold e utilizzato il Codice open source AlphaFold dal lancio. Siamo stati onorati di conoscere i modi in cui le previsioni di AlphaFold hanno accelerato importanti sforzi scientifici e stiamo lavorando per raccontare alcune di queste storie con i nostri Spiegato progetto. Finora non siamo a conoscenza di alcun uso improprio o danno correlato ad AlphaFold, sebbene continuiamo a prestare molta attenzione a questo problema.

Anche se AlphaFold era più complesso della maggior parte dei progetti di ricerca di DeepMind, stiamo utilizzando elementi di ciò che abbiamo imparato e incorporandolo in altre versioni.

Stiamo sviluppando questo lavoro:

  • Aumentare la gamma di input da parte di esperti esterni in ogni fase del processo ed esplorando meccanismi per l’etica partecipativa su scala più ampia.
  • Ampliare la nostra comprensione dell’intelligenza artificiale per la biologia in generale, al di là di ogni singolo progetto o innovazione, per sviluppare una visione più forte delle opportunità e dei rischi nel tempo.
  • Trovare modi per espandere le nostre partnership con gruppi in campi che sono sottoserviti dalle strutture attuali.

Proprio come la nostra ricerca, questo è un processo di apprendimento continuo. Lo sviluppo dell’intelligenza artificiale per benefici diffusi è uno sforzo comunitario che va ben oltre DeepMind.

Stiamo facendo ogni sforzo per essere consapevoli di quanto duro lavoro c’è ancora da fare in collaborazione con gli altri e di come agire da pionieri in modo responsabile per il futuro.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *