Poiché l’uso dei sistemi di intelligenza artificiale in applicazioni con implicazioni critiche continua a moltiplicarsi, gli esperti hanno chiesto pratiche più partecipative e attente al valore nella progettazione di questi sistemi. Esistono numerosi vantaggi che una maggiore partecipazione delle parti interessate può apportare alla progettazione dei sistemi di intelligenza artificiale, tra cui renderli più inclusivi, combattere i pregiudizi esistenti e garantire la responsabilità. In risposta, negli ultimi anni il campo dell’etica dell’IA ha prodotto un numero significativo di toolkit. Questi provengono da fonti diverse come università, aziende e istituti di regolamentazione, hanno utilizzato diverse tecniche e strutture diverse e hanno avuto destinatari diversi che vanno dai data scientist e dagli ingegneri dell’intelligenza artificiale ai progettisti e al pubblico in generale (Wong et al., 2023 ).
Molti toolkit sull’etica dell’IA si concentrano esclusivamente sugli aspetti tecnici relativi alla creazione dell’IA e si rivolgono principalmente ai professionisti tecnici (ad es Strumento di autovalutazione FAIR). Tuttavia, esistono numerosi toolkit che sostengono e si concentrano sulla partecipazione delle parti interessate, e in particolare delle parti interessate esterne al team di creazione dell’IA, come gli utenti finali e gli esperti di dominio (ad es. L’intelligenza artificiale incontra il kit di strumenti di progettazione). I toolkit che si concentrano sull’inclusione delle parti interessate tendono a farlo fornendo risorse come tele o mazzi di carte che consentono alle parti interessate, e in particolare a quelle con background non tecnico, di partecipare alle attività di progettazione. Questa partecipazione può portare a un’ampia gamma di risultati, dal brainstorming sulle conseguenze di diverse decisioni alla creazione di empatia con gli utenti dell’intelligenza artificiale.
Nonostante questo gran numero di toolkit, nessuno ha veramente cercato di capire cosa li fa funzionare o quali sono le loro strategie sottostanti. Ciò non rende chiaro se abbiano effettivamente un effetto positivo sugli utenti dei toolkit e sui risultati che producono durante l’utilizzo dei toolkit, nonostante il loro uso diffuso. Per questo motivo, volevo vedere come funziona un determinato toolkit; che si è rivelata un’esperienza molto formativa.
Ho tenuto un workshop di progettazione con 9 partecipanti che lavoravano con l’intelligenza artificiale a diverse capacità. Il workshop è stato costituito da un’attività di ideazione per il brainstorming di casi d’uso e caratteristiche di progettazione per un’intelligenza artificiale conversazionale fittizia per aiutare le persone ad autogestire il diabete. Comprendeva un Kit di strumenti per l’etica dell’intelligenza artificiale è stato realizzato da un singolo designer piuttosto che da un’azienda o un’università. L’ho scelto apposta per esplorare davvero ciò che fondamentalmente ha reso possibile un kit di strumenti su piccola scala, che non era supportato da ingenti finanziamenti.
Il workshop si è svolto su Miro ed è durato due ore. Il modo in cui funziona il toolkit è che è composto da un mazzo di carte. Ciascuna di queste carte ha un valore (ad esempio privacy, autonomia, sicurezza, ecc.) e How Might We? domande che fungono da spunti per idee diverse che potrebbero portare al rispetto del valore dato nella tecnologia che si sta producendo. Ho disposto queste carte nella bacheca Miro e ho lasciato dei foglietti adesivi con cui le persone potevano fare brainstorming, quindi ho assegnato a ciascuna persona due valori su cui concentrarsi individualmente.
Dopo un’ora ci siamo riuniti tutti e ho girato le carte così ora la gente non poteva più vedere i valori, ma solo le idee sui foglietti adesivi che le persone avevano messo giù. Ho chiesto a ciascuno di presentare le idee che aveva scritto e tutti gli altri dovevano indovinare il valore che intendevano rispettare.
Usare i valori come trampolino di lancio per costruire empatia e considerazioni più ampie
Il toolkit è stato progettato per utilizzare l’elenco dei valori forniti come trampolino di lancio per l’ideazione e il brainstorming. 3 partecipanti hanno affermato che questo è stato un approccio molto utile:
“È stato interessante vedere come valori diversi siano applicabili allo sviluppo di un agente conversazionale.”
“Pensare a un design dalla prospettiva di un valore alla volta.”
“Guardare le carte Valore e produrre idee attorno ad esse.”
- C’è stata una scarsa attenzione alla fattibilità tecnica a favore dei valori e dell’importanza di idee diverse dal punto di vista dell’utente. I partecipanti sembravano apprezzare/preferire questo approccio in quanto offriva un gradito cambiamento rispetto al concentrarsi sugli aspetti tecnici trascurando valori come la sicurezza e l’equità. Un partecipante ha espresso la sensazione che questi valori potrebbero non emergere quando si pensa a un sistema e a cosa può essere costruito e alla tecnologia che sta dietro ad esso, o quando si pensa a cosa è più semplice o veloce da fare. Hanno affermato che, sebbene le persone dovrebbero pensare a questi valori durante la progettazione, non è sempre così poiché ci sono altre priorità che mettono in ombra questo. In breve, Mettere in primo piano i valori ha aiutato i partecipanti a fare brainstorming e a considerare aspetti non tecnici comunemente trascurati.
- L’esercizio ha portato i partecipanti a voler conoscere meglio la vita dei diabetici e le loro esperienze per capire come supportarli nel modo più personalizzato e specifico possibile e per trovare soluzioni che fossero realmente rilevanti e non basate su supposizioni. I valori che hanno innescato questo desiderio sono stati la “tranquillità” (che porta a volere informazioni sulle situazioni che causano loro stress e ansia) e la “sicurezza” (che porta a volere informazioni su quali situazioni di pericolo di vita esistono per loro). In breve, concentrarsi sui valori ha aumentato nei partecipanti (i) l’empatia con gli utenti target e (ii) la curiosità/desiderio di imparare come supportarli al meglio.
Usare la gamification per aumentare il coinvolgimento e migliorare i risultati
I partecipanti hanno apprezzato l’aspetto della gamification quando hanno dovuto indovinare immensamente i valori:
“Mi è piaciuto indovinare a quale valore fossero correlate le idee: mi ha tenuto molto più coinvolto nelle idee condivise piuttosto che limitarmi a leggerle/discuterle.”
“Penso che la parte relativa al valore indovinato sia stata molto utile per comprendere realmente i diversi valori e il modo in cui sono interconnessi.”
- Nell’indovinare i valori, i partecipanti hanno ritenuto che diverse idee potessero corrispondere a valori diversi e che idee diverse sotto valori diversi si riferissero allo stesso concetto o suggerimento. Le discussioni hanno inoltre evidenziato che diversi valori erano troppo simili o presentavano ampie sovrapposizioni e che era difficile distinguerli. — Si pensava che molti valori fossero troppo simili o sovrapposti, con i partecipanti che avevano difficoltà a indovinarli o a distinguerli. Esistono molti collegamenti tra i diversi valori e alcuni possono portare o facilitarne altri, o incarnare fenomeni/emozioni simili. Durante l’ipotesi, “equità” è stata scambiata per “inclusività”; “comunità”, “libertà” e “autonomia” non potevano essere differenziate l’una dall’altra; la “maestria” veniva confusa con “coraggio” e “curiosità”; e il termine “inclusività” è stato scambiato per “accessibilità” e “rispetto”. In breve, la gamification ha permesso ai partecipanti di cogliere realmente le interconnessioni tra idee e valori.
Miglioramenti e idee futuri
- Tre partecipanti hanno notato che avrebbero preferito più informazioni contestuali e suggerimenti per poter entrare meglio in empatia con le parti interessate target dell’IA conversazionale. Con valori specifici come “sicurezza” e “tranquillità”, i partecipanti si sono dimostrati empatici con gli utenti e volevano saperne di più sulle loro esperienze per supportarli meglio con soluzioni più personalizzate che rispondessero specificamente alle loro esigenze. Un partecipante ha ritenuto che al suggerimento iniziale mancasse il feedback da parte delle persone per cui stava progettando (diabetici) per fare un vero brainstorming di idee per loro. Volevano informazioni più personalizzate/specifiche sugli scenari degli utenti, descrizioni di momenti della loro vita o informazioni contestuali di vita reale che potessero essere utilizzate per personalizzare maggiormente le idee generate.
- Un suggerimento è stato quello di organizzare un seminario come questo, che si concentri prima sull’astratto, di alto livello alla cieca senza molte informazioni preliminari, quindi andare a raccogliere le informazioni dell’utente in seguito per il contesto. Perché se raccogli prima le informazioni dell’utente, potresti perdere idee o valori ed essere troppo concentrato su ciò che hai raccolto. Successivamente è possibile inserire tutto e fare nuovamente brainstorming su scenari e aspetti tecnici con il vantaggio di avere entrambe le fonti di conoscenza.
- Due partecipanti hanno notato che se non avessero avuto l’elenco dei valori con le definizioni, avrebbero potuto avere difficoltà a pensare alle parole esatte usate per descrivere i valori, forse qualcosa che li circonda ma non le parole esatte. Anche capire cosa significassero i valori sarebbe stato difficile senza fornire le descrizioni sottostanti.
Questo esperimento su ciò che fa funzionare un toolkit di etica dell’intelligenza artificiale mi ha portato a una comprensione più profonda del potere dell’uso della gamification e di esercizi basati sul valore. Di seguito ho distillato le mie intuizioni in sei punti che potrebbero aiutarti a gestire i tuoi workshop di progettazione utilizzando i toolkit di etica dell’intelligenza artificiale con le parti interessate per fare brainstorming o ideare la progettazione dell’intelligenza artificiale:
- Uno dei punti principali del pensiero collaborativo sull’etica dell’intelligenza artificiale è rendere l’intelligenza artificiale più incentrata sull’uomo. Per questo motivo è davvero importante includi molte informazioni contestuali (e preferibilmente di prima mano) sui tuoi utenti target e per chi stai progettando. Ricorda che molti professionisti tecnici potrebbero non essere abituati agli esercizi di costruzione dell’empatia e dell’ideazione, quindi aiutali ad arrivarci chiarendo davvero chi stanno cercando di aiutare.
- Considera se il tuo laboratorio ha bisogno di avere molte attività su cui lavorare da una visione di alto livello di ciò che potrebbe essere rilevante o importante, fino ai dettagli. Mescolare entrambi può creare confusione per i partecipanti, soprattutto se chiedi loro di classificare o valutare idee che potrebbero non essere comparabili allo stesso livello.
- Se lavori con i valori, assicurati di definire chiaramente il significato di ciascun valore. Questo è importante perché valori diversi possono significare cose diverse a seconda della persona a cui chiedi e possono esserci molti conflitti e sovrapposizioni tra loro se non sono chiaramente definiti.
- Portare valori nelle tue attività di progettazione AI può aiutare i partecipanti a fare brainstorming e a riflettere aspetti non tecnici comunemente trascuratiaiutali creare empatia con gli utenti targete aumentare il loro curiosità e voglia di supportare al meglio quegli utenti.
- Incorporando tecniche di gamification può aiutare migliorare il coinvolgimento e il divertimento dei partecipanti durante i seminari sull’etica dell’IA, e può anche farlo aiutarli a cogliere le connessioni tra le idee più profondamente.
Il mio progetto di dottorato mira a sfruttare strumenti e tecniche provenienti dai campi della progettazione per rendere la progettazione di sistemi di intelligenza artificiale accessibile e inclusiva. Sto lavorando per creare un processo partecipativo e un kit di strumenti per supportarlo, per coinvolgere sistematicamente le persone durante tutto il ciclo di vita dell’IA, con particolare attenzione alla sensibilità al valore.
Puoi controllare la pagina ufficiale del mio progetto su Sito dell’Imperial College di Londra. Puoi anche dare un’occhiata a quest’altro articolo che ho scritto spiegando il dettagli del mio progetto di dottorato.
Ho creato questo account Medium per pubblicare risultati interessanti mentre lavoro al mio progetto di dottorato e spero di diffondere notizie e informazioni sui sistemi di intelligenza artificiale in un modo che le renda comprensibili a chiunque.
Richmond Y. Wong, Michael A. Madaio e Nick Merrill. 2023. Vedere come un toolkit: come i toolkit immaginano il lavoro dell’etica dell’intelligenza artificiale. Proc. ACM Hum.-Comput. Interagire. 7, CSCW1, articolo 145 (aprile 2023), 27 pagine. https://doi.org/10.1145/3579621
Fonte: towardsdatascience.com