Come garantire che avvantaggiamo la società con la tecnologia di maggior impatto sviluppata oggi
In qualità di direttore operativo di uno dei laboratori di intelligenza artificiale più importanti al mondo, passo molto tempo a pensare all’impatto delle nostre tecnologie sulla vita delle persone e a come possiamo garantire che i nostri sforzi abbiano un risultato positivo. Questo è il fulcro del mio lavoro e il messaggio critico che porto quando incontro leader mondiali e figure chiave del nostro settore. Ad esempio, è stato in prima linea nel dibattito sul tema “Equità attraverso la tecnologia” che ho ospitato questa settimana al Forum economico mondiale a Davos, in Svizzera.
Ispirato dalle importanti conversazioni che si sono svolte a Davos sulla costruzione di un mondo più verde, più giusto e migliore, volevo condividere alcune riflessioni sul mio percorso come leader tecnologico, insieme ad alcune informazioni su come noi di DeepMind ci stiamo avvicinando alla sfida di costruire tecnologia che avvantaggia realmente la comunità globale.
Nel 2000, ho preso un anno sabbatico dal mio lavoro presso Intel per visitare l’orfanotrofio in Libano dove è cresciuto mio padre. Per due mesi ho lavorato per installare 20 PC nel primo laboratorio informatico dell’orfanotrofio e per formare gli studenti e gli insegnanti a usarli. Il viaggio è iniziato come un modo per onorare mio padre. Ma trovarmi in un luogo con un’infrastruttura tecnica così limitata mi ha dato anche una nuova prospettiva sul mio lavoro. Mi sono reso conto che senza un reale impegno da parte della comunità tecnologica, molti dei prodotti che stavo realizzando presso Intel sarebbero stati inaccessibili a milioni di persone. Sono diventato profondamente consapevole di come quel divario nell’accesso stesse esacerbando la disuguaglianza; anche se i computer risolvevano problemi e acceleravano il progresso in alcune parti del mondo, altre venivano lasciate più indietro.
Dopo quel primo viaggio in Libano, ho iniziato a rivalutare le mie priorità professionali. Ho sempre desiderato far parte della costruzione di una tecnologia innovativa. Ma quando sono tornato negli Stati Uniti, la mia attenzione si è concentrata sull’aiutare a costruire una tecnologia che potesse avere un impatto positivo e duraturo sulla società. Ciò mi ha portato a ricoprire diversi ruoli all’intersezione tra istruzione e tecnologia, incluso il co-fondatore Team4Techun’organizzazione no-profit che lavora per migliorare l’accesso alla tecnologia per gli studenti nei paesi in via di sviluppo.
Quando sono entrato in DeepMind come COO nel 2018, l’ho fatto in gran parte perché potevo dire che i fondatori e il team avevano la stessa attenzione all’impatto sociale positivo. Infatti, in DeepMind ora sosteniamo un termine che cattura perfettamente i miei valori e le mie speranze di integrare la tecnologia nella vita quotidiana delle persone: pionieristico in modo responsabile.
Credo che il pioniere responsabile dovrebbe essere una priorità per chiunque lavori nel settore tecnologico. Ma riconosco anche che è particolarmente importante quando si tratta di tecnologie potenti e diffuse come l’intelligenza artificiale. L’intelligenza artificiale è probabilmente la tecnologia di maggior impatto sviluppata oggi. Ha il potenziale a beneficio dell’umanità in innumerevoli modi: dalla lotta al cambiamento climatico alla prevenzione e al trattamento delle malattie. Ma è essenziale tenere conto degli impatti a valle sia positivi che negativi. Ad esempio, dobbiamo progettare i sistemi di intelligenza artificiale con attenzione e ponderazione evitare di amplificare i pregiudizi umanicome nei contesti di assunzione e polizia.
La buona notizia è che se mettiamo continuamente in discussione le nostre ipotesi su come l’intelligenza artificiale può e dovrebbe essere costruita e utilizzata, possiamo costruire questa tecnologia in un modo che avvantaggi davvero tutti. Ciò richiede l’invito alla discussione e al dibattito, l’iterazione man mano che impariamo, la creazione di garanzie sociali e tecniche e la ricerca di prospettive diverse. In DeepMind, tutto ciò che facciamo deriva dalla nostra missione aziendale di risolvere l’intelligenza per far avanzare la società e avvantaggiare l’umanità, e costruire una cultura pionieristica responsabile è essenziale per rendere questa missione una realtà.
Che aspetto ha nella pratica l’attività pionieristica responsabile? Credo che tutto inizi con la creazione di spazio per conversazioni aperte e oneste sulla responsabilità all’interno di un’organizzazione. Un luogo in cui abbiamo fatto questo in DeepMind è nel nostro gruppo di leadership multidisciplinare, che fornisce consulenza sui potenziali rischi e sull’impatto sociale della nostra ricerca.
L’evoluzione della nostra governance etica e la formalizzazione di questo gruppo sono state una delle mie prime iniziative quando sono entrato in azienda e, con una mossa un po’ non convenzionale, non gli ho dato un nome o un obiettivo specifico finché non ci siamo incontrati più volte. Volevo che ci concentrassimo sugli aspetti operativi e pratici della responsabilità, a partire da uno spazio privo di aspettative in cui tutti potessero parlare apertamente di cosa significasse per loro essere pionieristici in modo responsabile. Tali conversazioni sono state fondamentali per stabilire una visione condivisa e una fiducia reciproca, il che ci ha permesso di avere discussioni più aperte in futuro.
Un altro elemento del pionierismo responsabile è abbracciare a Kaizen filosofia e approccio. Ho conosciuto il termine kaizen negli anni ’90, quando mi sono trasferito a Tokyo per lavorare sugli standard della tecnologia DVD per Intel. È una parola giapponese che significa “miglioramento continuo” e, nel senso più semplice, un processo kaizen è quello in cui piccoli miglioramenti incrementali, apportati continuamente nel tempo, portano a un sistema più efficiente e ideale. Ma è la mentalità alla base del processo che conta davvero. Affinché il kaizen funzioni, tutti coloro che toccano il sistema devono prestare attenzione ai punti deboli e alle opportunità di miglioramento. Ciò significa che tutti devono avere sia l’umiltà di ammettere che qualcosa potrebbe essere rotto, sia l’ottimismo di credere di poterlo cambiare in meglio.
Durante il mio periodo come COO della società di formazione online Coursera, abbiamo utilizzato un approccio kaizen per ottimizzare la struttura del nostro corso. Quando mi sono iscritto a Coursera nel 2013, i corsi sulla piattaforma avevano scadenze rigorose e ogni corso veniva offerto solo poche volte all’anno. Abbiamo subito capito che questo non forniva abbastanza flessibilità, quindi siamo passati a un formato completamente on-demand e personalizzato. Le iscrizioni sono aumentate, ma i tassi di completamento sono diminuiti: si scopre che mentre troppa struttura è stressante e scomoda, troppo poca porta le persone a perdere la motivazione. Quindi ci siamo orientati nuovamente verso un formato in cui le sessioni del corso iniziano più volte al mese e gli studenti lavorano verso traguardi settimanali suggeriti. Ci sono voluti tempo e impegno per arrivarci, ma il miglioramento continuo alla fine ha portato a una soluzione che ha permesso alle persone di trarre pieno vantaggio dalla loro esperienza di apprendimento.
Nell’esempio sopra, il nostro approccio kaizen è stato ampiamente efficace perché abbiamo chiesto feedback alla nostra comunità di studenti e ascoltato le loro preoccupazioni. Questa è un’altra parte cruciale dell’attività pionieristica responsabile: riconoscere che non abbiamo tutte le risposte e costruire relazioni che ci consentano di attingere continuamente a input esterni.
Per DeepMind, ciò significa a volte consultare esperti su argomenti come sicurezza, privacy, bioetica e psicologia. Può anche significare raggiungere diverse comunità di persone che sono direttamente colpite dalla nostra tecnologia e invitarle a una discussione su ciò che desiderano e di cui hanno bisogno. E a volte significa semplicemente ascoltare le persone che fanno parte della nostra vita – indipendentemente dal loro background tecnico o scientifico – quando parlano delle loro speranze per il futuro dell’intelligenza artificiale.
Fondamentalmente, essere pionieri in modo responsabile significa dare priorità alle iniziative incentrate sull’etica e sull’impatto sociale. Un’area di interesse crescente nella nostra ricerca presso DeepMind riguarda il modo in cui possiamo rendere i sistemi di intelligenza artificiale più equi e inclusivi. Negli ultimi due anni abbiamo pubblicato ricerche su IA decoloniale, equità queer nell’intelligenza artificiale, mitigare i rischi etici e sociali nei modelli linguistici dell’intelligenza artificialee altro ancora. Allo stesso tempo, stiamo anche lavorando per aumentare la diversità nel campo dell’intelligenza artificiale attraverso i nostri servizi dedicati programmi di borse di studio. Internamente, abbiamo recentemente iniziato a ospitare sessioni della Responsible AI Community che riuniscono diversi team e sforzi che lavorano su sicurezza, etica e governance – e diverse centinaia di persone si sono iscritte per essere coinvolte.
Sono ispirato dall’entusiasmo per questo lavoro tra i nostri dipendenti e profondamente orgoglioso di tutti i miei colleghi di DeepMind che mantengono l’impatto sociale al centro. Assicurandoci che la tecnologia vada a vantaggio di coloro che ne hanno più bisogno, credo che possiamo fare progressi concreti nelle sfide che la nostra società si trova ad affrontare oggi. In questo senso, essere pionieri in modo responsabile è un imperativo morale e, personalmente, non riesco a pensare a una via migliore da seguire.