La ricerca dell'UMD per un'intelligenza artificiale etica e inclusiva

 | Intelligenza-Artificiale

Poiché i sistemi di intelligenza artificiale permeano sempre più i processi decisionali critici nella nostra vita quotidiana, l’integrazione di quadri etici nello sviluppo dell’IA sta diventando una priorità della ricerca. Presso l’Università del Maryland (UMD), team interdisciplinari affrontare la complessa interazione tra ragionamento normativo, algoritmi di apprendimento automatico e sistemi socio-tecnici.

In una recente intervista con Notizie sull'intelligenza artificialericercatori post-dottorato Ilaria Canavotto E Vaishnav Kameswaran combinare competenze in filosofia, informatica e interazione uomo-computer per affrontare sfide urgenti nell’etica dell’IA. Il loro lavoro abbraccia i fondamenti teorici dell’integrazione dei principi etici nelle architetture dell’intelligenza artificiale e le implicazioni pratiche dell’implementazione dell’intelligenza artificiale in settori ad alto rischio come l’occupazione.

Comprensione normativa dei sistemi di intelligenza artificiale

Ilaria Canavotto, ricercatrice presso l'iniziativa Values-Centered Artificial Intelligence (VCAI) dell'UMD, è affiliata all'Istituto di studi informatici avanzati e al Dipartimento di Filosofia. Sta affrontando una domanda fondamentale: come possiamo permeare i sistemi di intelligenza artificiale con una comprensione normativa? Poiché l’intelligenza artificiale influenza sempre più le decisioni che incidono sui diritti umani e sul benessere, i sistemi devono comprendere norme etiche e legali.

“La domanda su cui indago è: come possiamo inserire questo tipo di informazioni, questa comprensione normativa del mondo, in una macchina che potrebbe essere un robot, un chatbot, qualcosa del genere?” dice Canavotto.

La sua ricerca combina due approcci:

Approccio dall'alto verso il basso: questo metodo tradizionale prevede la programmazione esplicita di regole e norme nel sistema. Tuttavia, sottolinea Canavotto, «è semplicemente impossibile scriverli con la stessa facilità. Ci sono sempre nuove situazioni che si presentano”.

Approccio dal basso verso l'alto: un metodo più recente che utilizza l'apprendimento automatico per estrarre regole dai dati. Sebbene sia più flessibile, manca di trasparenza: “Il problema di questo approccio è che non sappiamo realmente cosa apprende il sistema ed è molto difficile spiegare la sua decisione”, osserva Canavotto.

Canavotto e i suoi colleghi, Jeff Horty ed Eric Pacuit, stanno sviluppando un approccio ibrido per combinare il meglio di entrambi gli approcci. Mirano a creare sistemi di intelligenza artificiale in grado di apprendere regole dai dati mantenendo al tempo stesso processi decisionali spiegabili fondati su ragionamenti legali e normativi.

“(Il nostro) approccio (…) si basa su un campo chiamato intelligenza artificiale e diritto. Quindi, in questo campo, hanno sviluppato algoritmi per estrarre informazioni dai dati. Quindi vorremmo generalizzare alcuni di questi algoritmi e quindi avere un sistema in grado più in generale di estrarre informazioni basate sul ragionamento legale e sul ragionamento normativo”, spiega.

L'impatto dell'intelligenza artificiale sulle pratiche di assunzione e sull'inclusione dei disabili

Mentre Canavotto si concentra sui fondamenti teorici, Vaishnav Kameswaran, affiliato all'NSF Institute for Trustworthy AI and Law and Society dell'UMD, esamina le implicazioni dell'IA nel mondo reale, in particolare il suo impatto sulle persone con disabilità.

La ricerca di Kameswaran esamina l'uso dell'intelligenza artificiale nei processi di assunzione, scoprendo come i sistemi possono inavvertitamente discriminare i candidati con disabilità. Spiega: “Abbiamo lavorato per… aprire un po' la scatola nera, provare a capire cosa fanno questi algoritmi sul back-end e come iniziano a valutare i candidati”.

Le sue scoperte rivelano che molte piattaforme di assunzione basate sull’intelligenza artificiale fanno molto affidamento su segnali comportamentali normativi, come il contatto visivo e le espressioni facciali, per valutare i candidati. Questo approccio può svantaggiare in modo significativo le persone con disabilità specifiche. Ad esempio, i candidati ipovedenti potrebbero avere difficoltà a mantenere il contatto visivo, un segnale che i sistemi di intelligenza artificiale spesso interpretano come mancanza di coinvolgimento.

“Concentrandosi su alcune di queste qualità e valutando i candidati in base ad esse, queste piattaforme tendono ad esacerbare le disuguaglianze sociali esistenti”, avverte Kameswaran. Sostiene che questa tendenza potrebbe ulteriormente emarginare le persone con disabilità nella forza lavoro, un gruppo che già si trova ad affrontare sfide occupazionali significative.

Il panorama etico più ampio

Entrambi i ricercatori sottolineano che le preoccupazioni etiche relative all’intelligenza artificiale si estendono ben oltre le loro specifiche aree di studio. Toccano diverse questioni chiave:

  1. Privacy e consenso: I ricercatori evidenziano l’inadeguatezza degli attuali meccanismi di consenso, in particolare per quanto riguarda la raccolta dei dati per la formazione sull’IA. Kameswaran cita esempi tratti dal suo lavoro in India, dove le popolazioni vulnerabili hanno inconsapevolmente ceduto numerosi dati personali a piattaforme di prestito basate sull’intelligenza artificiale durante la pandemia di COVID-19.
  2. Trasparenza e spiegabilità: Entrambi i ricercatori sottolineano l’importanza di comprendere come i sistemi di intelligenza artificiale prendono decisioni, soprattutto quando queste decisioni hanno un impatto significativo sulla vita delle persone.
  3. Atteggiamenti e pregiudizi della società: Kameswaran sottolinea che le soluzioni tecniche da sole non possono risolvere i problemi di discriminazione. Sono necessari cambiamenti sociali più ampi nell’atteggiamento nei confronti dei gruppi emarginati, comprese le persone con disabilità.
  4. Collaborazione interdisciplinare: Il lavoro dei ricercatori dell'UMD esemplifica l'importanza della cooperazione tra filosofia, informatica e altre discipline nell'affrontare l'etica dell'IA.

Guardando al futuro: soluzioni e sfide

Sebbene le sfide siano significative, entrambi i ricercatori stanno lavorando per trovare soluzioni:

  • L'approccio ibrido di Canavotto all'intelligenza artificiale normativa potrebbe portare a sistemi di intelligenza artificiale più eticamente consapevoli e spiegabili.
  • Kameswaran suggerisce di sviluppare strumenti di audit per i gruppi di difesa per valutare le piattaforme di assunzione di intelligenza artificiale per potenziali discriminazioni.
  • Entrambi sottolineano la necessità di cambiamenti politici, come l’aggiornamento dell’Americans with Disabilities Act per affrontare la discriminazione legata all’intelligenza artificiale.

Tuttavia, riconoscono anche la complessità dei problemi. Come osserva Kameswaran: “Sfortunatamente, non penso che una soluzione tecnica per addestrare l’intelligenza artificiale con determinati tipi di dati e strumenti di controllo risolverà di per sé un problema. Quindi richiede un approccio su più fronti”.

Un aspetto fondamentale del lavoro dei ricercatori è la necessità di una maggiore consapevolezza pubblica sull’impatto dell’IA sulle nostre vite. Le persone hanno bisogno di sapere quanti dati condividono o come vengono utilizzati. Come sottolinea Canavotto, le aziende hanno spesso un incentivo a oscurare queste informazioni, definendole come “Le aziende che cercano di dirti che il mio servizio sarà migliore per te se mi fornisci i dati”.

I ricercatori sostengono che occorre fare molto di più per educare il pubblico e responsabilizzare le aziende. In definitiva, l’approccio interdisciplinare di Canavotto e Kameswaran, che combina l’indagine filosofica con l’applicazione pratica, è un percorso da seguire nella giusta direzione, garantendo che i sistemi di intelligenza artificiale siano potenti ma anche etici ed equi.

Vedi anche: Regolamentazioni per aiutare o ostacolare: il punto di vista di Cloudflare

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, intelligenza artificiale, etica, ricerca, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *