Come possiamo integrare i valori umani nell’intelligenza artificiale?

 | Intelligenza-Artificiale

Attingere dalla filosofia per identificare principi equi per un’intelligenza artificiale etica

Man mano che l’intelligenza artificiale (AI) diventa più potente e più profondamente integrata nelle nostre vite, le domande su come viene utilizzata e implementata sono ancora più importanti. Quali valori guidano l’AI? Di chi sono i valori? E come vengono selezionati?

Queste domande fanno luce sul ruolo svolto dai principi, i valori fondamentali che guidano le decisioni grandi e piccole nell’intelligenza artificiale. Per gli esseri umani, i principi aiutano a modellare il modo in cui viviamo la nostra vita e il nostro senso di giusto e sbagliato. Per quanto riguarda l’intelligenza artificiale, modellano il suo approccio a una serie di decisioni che comportano compromessi, come la scelta tra dare priorità alla produttività o aiutare i più bisognosi.

In un documento pubblicato oggi nel Atti dell’Accademia Nazionale delle Scienzetraiamo ispirazione dalla filosofia per trovare modi per identificare meglio i principi che guidano il comportamento dell’IA. Nello specifico, esploriamo come un concetto noto come “velo dell’ignoranza” – un esperimento mentale inteso a aiutare a identificare principi equi per le decisioni di gruppo – possa essere applicato all’intelligenza artificiale.

Nei nostri esperimenti, abbiamo scoperto che questo approccio incoraggiava le persone a prendere decisioni basate su ciò che ritenevano giusto, indipendentemente dal fatto che portasse loro benefici diretti o meno. Abbiamo anche scoperto che i partecipanti erano più propensi a selezionare un’intelligenza artificiale che aiutasse coloro che erano più svantaggiati quando ragionavano dietro il velo dell’ignoranza. Queste intuizioni potrebbero aiutare ricercatori e politici a selezionare i principi per un assistente AI in un modo che sia giusto per tutte le parti.

Il velo di ignoranza (a destra) è un metodo per trovare consenso su una decisione quando ci sono opinioni diverse in un gruppo (a sinistra).

Uno strumento per prendere decisioni più giuste

Un obiettivo chiave per i ricercatori sull’intelligenza artificiale è stato quello di allineare i sistemi di intelligenza artificiale ai valori umani. Tuttavia, non esiste consenso su un unico insieme di valori umani o preferenze per governare l’intelligenza artificiale: viviamo in un mondo in cui le persone hanno background, risorse e convinzioni diverse. Come dovremmo selezionare i principi per questa tecnologia, date le opinioni così diverse?

Sebbene questa sfida sia emersa per l’intelligenza artificiale negli ultimi dieci anni, l’ampia questione su come prendere decisioni giuste ha una lunga tradizione filosofica. Negli anni ’70, il filosofo politico John Rawls propose il concetto del velo di ignoranza come soluzione a questo problema. Rawls sosteneva che quando le persone scelgono i principi di giustizia per una società, dovrebbero immaginare di farlo senza conoscere la loro particolare posizione in quella società, incluso, ad esempio, il loro status sociale o il livello di ricchezza. Senza queste informazioni, le persone non possono prendere decisioni in modo egoistico e dovrebbero invece scegliere principi che siano giusti per tutti i soggetti coinvolti.

Ad esempio, pensa di chiedere a un amico di tagliare la torta alla tua festa di compleanno. Un modo per garantire che le dimensioni delle fette siano equamente proporzionate è non dire loro quale sarà la loro fetta. Questo approccio di trattenere le informazioni è apparentemente semplice, ma ha ampie applicazioni in tutti i campi, dalla psicologia alla politica, per aiutare le persone a riflettere sulle proprie decisioni da una prospettiva meno egoistica. È stato utilizzato come metodo per raggiungere un accordo di gruppo su questioni controverse, che vanno dalle condanne alla tassazione.

Basandosi su queste basi, il precedente DeepMind ricerca ha proposto che la natura imparziale del velo di ignoranza possa aiutare a promuovere l’equità nel processo di allineamento dei sistemi di intelligenza artificiale ai valori umani. Abbiamo progettato una serie di esperimenti per testare gli effetti del velo di ignoranza sui principi che le persone scelgono per guidare un sistema di intelligenza artificiale.

Massimizzare la produttività o aiutare i più svantaggiati?

In un “gioco di raccolta” online, abbiamo chiesto ai partecipanti di fare un gioco di gruppo con tre giocatori computerizzati, in cui l’obiettivo di ogni giocatore era raccogliere legna tagliando alberi in territori separati. In ogni gruppo, alcuni giocatori sono stati fortunati e sono stati assegnati a una posizione avvantaggiata: gli alberi popolavano densamente il loro campo, consentendo loro di raccogliere la legna in modo efficiente. Gli altri membri del gruppo erano svantaggiati: i loro campi erano scarsi e richiedevano uno sforzo maggiore per raccogliere gli alberi.

Ogni gruppo era assistito da un unico sistema di intelligenza artificiale che poteva dedicare il tempo ad aiutare i singoli membri del gruppo a raccogliere gli alberi. Abbiamo chiesto ai partecipanti di scegliere tra due principi per guidare il comportamento dell’assistente AI. Secondo il “principio di massimizzazione” l’assistente AI mirerebbe ad aumentare la resa del raccolto del gruppo concentrandosi prevalentemente sui campi più densi. Mentre in base al “principio di priorità” l’assistente AI si concentrerebbe sull’aiutare i membri del gruppo svantaggiato.

Un’illustrazione del “gioco della raccolta” in cui i giocatori (mostrati in rosso) occupano un campo denso che è più facile da raccogliere (i due quadranti superiori) o un campo sparso che richiede più sforzo per raccogliere gli alberi.

Abbiamo messo la metà dei partecipanti dietro il velo dell’ignoranza: hanno dovuto scegliere tra diversi principi etici senza sapere quale sarebbe stato il loro campo – quindi non sapevano quanto fossero avvantaggiati o svantaggiati. I restanti partecipanti hanno fatto la scelta sapendo se stavano meglio o peggio.

Incoraggiare l’equità nel processo decisionale

Abbiamo scoperto che se i partecipanti non conoscevano la propria posizione, preferivano costantemente il principio di definizione delle priorità, in base al quale l’assistente AI aiutava i membri svantaggiati del gruppo. Questo modello è emerso in modo coerente in tutte e cinque le diverse varianti del gioco e ha oltrepassato i confini sociali e politici: i partecipanti hanno mostrato questa tendenza a scegliere il principio di definizione delle priorità indipendentemente dalla loro propensione al rischio o dal loro orientamento politico. Al contrario, i partecipanti che conoscevano la propria posizione erano più propensi a scegliere il principio che li avvantaggiava di più, sia che si trattasse del principio di priorità o di massimizzazione.

Un grafico che mostra l’effetto del velo di ignoranza sulla probabilità di scegliere il principio di definizione delle priorità, secondo cui l’assistente AI aiuterebbe chi sta peggio. I partecipanti che non conoscevano la propria posizione erano molto più propensi a sostenere questo principio per governare il comportamento dell’IA.

Quando abbiamo chiesto ai partecipanti perché avevano fatto la loro scelta, coloro che non conoscevano la loro posizione erano particolarmente propensi ad esprimere preoccupazioni sull’equità. Spesso spiegavano che era giusto che il sistema di intelligenza artificiale si concentrasse sull’aiuto alle persone che stavano peggio nel gruppo. Al contrario, i partecipanti che conoscevano la propria posizione discutevano molto più frequentemente la loro scelta in termini di vantaggi personali.

Infine, una volta terminato il gioco della raccolta, abbiamo proposto ai partecipanti una situazione ipotetica: se avessero rigiocato il gioco, questa volta sapendo che si sarebbero trovati in un campo diverso, avrebbero scelto lo stesso principio della prima volta? ? Eravamo particolarmente interessati agli individui che in precedenza beneficiavano direttamente della loro scelta, ma che non avrebbero beneficiato della stessa scelta in un nuovo gioco.

Abbiamo scoperto che le persone che in precedenza avevano fatto delle scelte senza conoscere la propria posizione avevano maggiori probabilità di continuare a sostenere il loro principio, anche quando sapevano che non li avrebbe più favoriti nel loro nuovo campo. Ciò fornisce un’ulteriore prova del fatto che il velo di ignoranza incoraggia l’equità nel processo decisionale dei partecipanti, portandoli a principi che erano disposti a sostenere anche quando non ne beneficiavano più direttamente.

Principi più giusti per l’intelligenza artificiale

La tecnologia dell’intelligenza artificiale sta già avendo un profondo effetto sulle nostre vite. I principi che governano l’IA determinano il suo impatto e il modo in cui questi potenziali benefici verranno distribuiti.

La nostra ricerca ha esaminato un caso in cui gli effetti di diversi principi erano relativamente chiari. Non sarà sempre così: l’intelligenza artificiale viene utilizzata in una serie di ambiti che spesso si basano su un gran numero di ambiti regole per guidarlipotenzialmente con effetti collaterali complessi. Tuttavia, il velo di ignoranza può ancora potenzialmente influenzare la scelta dei principi, contribuendo a garantire che le regole che scegliamo siano giuste per tutte le parti.

Per garantire la creazione di sistemi di intelligenza artificiale a vantaggio di tutti, abbiamo bisogno di una ricerca approfondita con un’ampia gamma di input, approcci e feedback provenienti da tutte le discipline e dalla società. Il velo di ignoranza può fornire un punto di partenza per la selezione dei principi con cui allineare l’IA. È stato effettivamente implementato in altri domini far emergere preferenze più imparziali. Ci auguriamo che, con ulteriori indagini e attenzione al contesto, possa aiutare a svolgere lo stesso ruolo per i sistemi di intelligenza artificiale costruiti e implementati nella società oggi e in futuro.

Ulteriori informazioni sull’approccio di DeepMind a sicurezza ed etica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *