
Man mano che le aziende si affidano maggiormente ai sistemi automatizzati, l'etica è diventata una preoccupazione chiave. Gli algoritmi modellano sempre più le decisioni che sono state prese in precedenza dalle persone e questi sistemi hanno un impatto su posti di lavoro, credito, assistenza sanitaria e risultati legali. Quel potere richiede responsabilità. Senza regole chiare e standard etici, l'automazione può rafforzare l'ingiustizia e causare danni.
Ignorare l'etica colpisce le persone reali in modi reali, non solo cambiando gradi di fiducia pubblica. I sistemi distorti possono negare prestiti, posti di lavoro o assistenza sanitaria e l'automazione può aumentare la velocità delle decisioni negative se non sono in atto alcuna protezione. Quando i sistemi effettuano la chiamata sbagliata, è spesso difficile appello o persino capire perché e la mancanza di trasparenza trasforma piccoli errori in problemi più grandi.
Comprensione dei pregiudizi nei sistemi AI
La distorsione nell'automazione viene spesso dai dati. Se i dati storici includono discriminazioni, i sistemi addestrati su di essi possono ripetere tali schemi. Ad esempio, uno strumento di intelligenza artificiale utilizzato per lo screening dei candidati potrebbe rifiutare i candidati in base a genere, razza o età se i suoi dati di allenamento riflettono quei pregiudizi passati. Bias entra anche attraverso il design, in cui le scelte su cosa misurare, quali risultati favoriscono e come etichettare i dati possono creare risultati distorti.
Ci sono molti tipi di pregiudizi. La distorsione del campionamento si verifica quando un set di dati non rappresenta tutti i gruppi, mentre la distorsione dell'etichettatura può provenire da un input umano soggettivo. Anche le scelte tecniche come obiettivi di ottimizzazione o tipo di algoritmo possono distorcere i risultati.
I problemi non sono solo teorici. Amazon ha lasciato l'uso di uno strumento di reclutamento nel 2018 dopo aver favorito i candidati maschili e alcuni Riconoscimento facciale I sistemi sono stati trovati Identifica erroneamente le persone di colore a tassi più alti rispetto ai caucasici. Tali problemi danneggiano la fiducia e sollevano preoccupazioni legali e sociali.
Un'altra vera preoccupazione è il pregiudizio per procura. Anche quando i tratti protetti come la razza non vengono utilizzati direttamente, altre funzionalità come il codice postale o il livello di istruzione possono agire come stand-in, il che significa che il sistema può comunque discriminare anche se l'input sembra neutrale, ad esempio sulla base di aree più ricche o più povere. La distorsione proxy è difficile da rilevare senza test attenti. L'aumento degli incidenti di distorsione dell'IA è un segno che è necessaria maggiore attenzione nella progettazione del sistema.
Soddisfare gli standard che contano
Le leggi stanno recuperando. L'UE Hai un documentoPassato nel 2024, classifica i sistemi di intelligenza artificiale per rischio. I sistemi ad alto rischio, come quelli utilizzati nell'assunzione o nel punteggio del credito, devono soddisfare requisiti rigorosi, tra cui trasparenza, supervisione umana e controlli di distorsione. Negli Stati Uniti, non esiste una sola legge di intelligenza artificiale, ma i regolatori sono attivi. La Commissione per le pari opportunità di lavoro (EEOC) avverte i datori di lavoro sui rischi di strumenti di assunzione guidati dall'IA e la Federal Trade Commission (FTC) ha anche segnalato che i sistemi distorti possono violare le leggi anti-discriminazione.
La Casa Bianca ha emesso un modello per una fattura dei diritti AI, offrendo una guida sull'uso sicuro ed etico. Sebbene non sia una legge, stabilisce aspettative, coprendo cinque aree chiave: sistemi sicuri, protezioni di discriminazione algoritmica, privacy dei dati, avviso e spiegazione e alternative umane.
Le aziende devono anche guardare le leggi statali degli Stati Uniti. La California si è trasferita Regolare il processo decisionale algoritmicoE l'Illinois richiede alle aziende di raccontare ai candidati se l'IA viene utilizzata nelle interviste video. Non riuscire a conformarsi può portare multe e cause.
I regolatori di New York City ora richiedono audit per i sistemi di intelligenza artificiale utilizzati nelle assunzioni. Gli audit devono mostrare se il sistema fornisce risultati equa in gruppi di genere e razza e i datori di lavoro devono anche notificare i richiedenti quando viene utilizzata l'automazione.
La conformità è molto più che evitare le sanzioni – si tratta anche di stabilire la fiducia. Le aziende che possono dimostrare che i loro sistemi sono equi e responsabili hanno maggiori probabilità di vincere supporto da utenti e regolatori.
Come costruire sistemi più chiari
L'etica nell'automazione non si verifica per caso. Ci vuole una pianificazione, gli strumenti giusti e l'attenzione continua. La distorsione e l'equità devono essere integrate nel processo dall'inizio, non imbullonate in seguito. Ciò implica l'impostazione di obiettivi, la scelta dei dati giusti e l'inclusione delle voci giuste al tavolo.
Fare questo bene significa seguire alcune strategie chiave:
Condurre valutazioni di distorsione
Il primo passo per superare il pregiudizio è trovarlo. Le valutazioni di pregiudizio dovrebbero essere eseguite presto e spesso, dallo sviluppo alla distribuzione, per garantire che i sistemi non producano risultati sleali. Le metriche potrebbero includere tassi di errore in gruppi o decisioni che hanno un impatto maggiore su un gruppo rispetto ad altri.
Gli audit di distorsione devono essere eseguiti da terze parti quando possibile. Le revisioni interne possono perdere questioni chiave o mancanza di indipendenza e la trasparenza nei processi di audit obiettivi crea fiducia pubblica.
Implementazione di diversi set di dati
Diversi dati di formazione aiutano a ridurre la distorsione includendo campioni di tutti i gruppi di utenti, in particolare quelli spesso esclusi. Un assistente vocale addestrato principalmente sulle voci maschili funzionerà male per le donne e un modello di punteggio di credito privo di dati sugli utenti a basso reddito potrebbe giudicare erroneamente.
La diversità dei dati aiuta anche i modelli ad adattarsi all'uso del mondo reale. Gli utenti provengono da diversi background e i sistemi dovrebbero riflettere questo. Varietà geografica, culturale e linguistica TUTTA.
Diversi dati non sono sufficienti da soli-devono anche essere accurati e ben etichettati. Garbage In, Garbage Out si applica ancora, quindi i team devono verificare gli errori e le lacune e correggerli.
Promuovere l'inclusività nel design
Il design inclusivo coinvolge le persone colpite. Gli sviluppatori dovrebbero consultare gli utenti, in particolare quelli a rischio di danno (o quelli che potrebbero, usando l'intelligenza artificiale distorta, causare danni), poiché ciò aiuta a scoprire punti ciechi. Ciò potrebbe significare coinvolgere gruppi di difesa, esperti di diritti civili o comunità locali nelle revisioni dei prodotti. Significa ascoltare prima che i sistemi vadano in diretta, non dopo che i reclami sono arrivati.
Il design inclusivo significa anche team interdisciplinari. Portare voci di etica, legge e scienze sociali può migliorare il processo decisionale, poiché questi team hanno maggiori probabilità di porre domande diverse e rischi individuali.
Anche i team dovrebbero essere diversi. Le persone con esperienze di vita diverse individuano questioni diverse e un sistema costruito da un gruppo omogeneo può trascurare i rischi che gli altri che gli altri catturebbero.
Cosa stanno facendo bene le aziende
Alcune aziende e agenzie stanno prendendo provvedimenti per affrontare il pregiudizio dell'intelligenza artificiale e migliorare la conformità.
Tra il 2005 e il 2019, l'amministrazione fiscale e doganale olandese ha accusato erroneamente circa 26.000 famiglie di rivendicare fraudolentemente le prestazioni di assistenza all'infanzia. Un algoritmo utilizzato nel sistema di rilevamento delle frodi mirava in modo sproporzionato alle famiglie con doppia nazionalità e bassi redditi. La ricaduta portò a proteste pubbliche e alle dimissioni del governo olandese nel 2021.
LinkedIn ha affrontato un controllo sulla distorsione di genere nei suoi algoritmi di raccomandazione di lavoro. Ricerca dal MIT e altre fonti hanno scoperto che gli uomini avevano maggiori probabilità di essere abbinati a ruoli di leadership più pagati, in parte a causa di modelli comportamentali nel modo in cui gli utenti hanno chiesto lavoro. In risposta, LinkedIn ha implementato un sistema AI secondario per garantire un pool più rappresentativo di candidati.
Un altro esempio è il Legge AEDT (New York City Automated Employment Tool (AEDT)che è entrato in vigore il 1 ° gennaio 2023, con l'applicazione a partire dal 5 luglio 2023. La legge richiede che i datori di lavoro e le agenzie di lavoro utilizzano strumenti automatizzati per l'assunzione o la promozione per condurre un audit di pregiudizio indipendente in un anno di utilizzo, rivelare pubblicamente un riepilogo dei risultati e informare i candidati almeno 10 giorni di lavoro in anticipo, le regole che mirano a rendere più curati ai-aiuti.
Aetna, un assicuratore sanitario, ha lanciato un Revisione interna delle sue algoritmi di approvazione delle reclami e hanno scoperto che alcuni modelli hanno portato a ritardi più lunghi per i pazienti a basso reddito. La società ha cambiato il modo in cui i dati sono stati ponderati e ha aggiunto maggiore supervisione per ridurre questa lacuna.
Gli esempi mostrano che può essere affrontato il pregiudizio di intelligenza artificiale, ma richiede uno sforzo, obiettivi chiari e una forte responsabilità.
Dove andiamo da qui
L'automazione è qui per rimanere, ma la fiducia nei sistemi dipende dall'equità dei risultati e dalle regole chiare. Il pregiudizio nei sistemi di intelligenza artificiale può causare danni e rischi legali e la conformità non è una casella da verificare: fa parte delle cose nel modo giusto.
L'automazione etica inizia con consapevolezza. Ci vogliono dati forti, test regolari e progettazione inclusiva. Le leggi possono aiutare, ma il vero cambiamento dipende anche dalla cultura aziendale e dalla leadership.
(Foto da Pixabay)
Vedi anche: Perché il Medio Oriente è un posto caldo per gli investimenti tecnologici globali

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com