La combinazione di intelligenza artificiale e politica può occasionalmente avere ripercussioni impreviste, come si è visto di recente in Alaska.
In una svolta insolita degli eventi, i legislatori dell’Alaska avrebbero utilizzato citazioni generate dall’intelligenza artificiale che erano imprecise per giustificare una politica proposta che vietava i cellulari nelle scuole. Come riportato da /The Alaska Beacon/, il Dipartimento dell'Istruzione e dello Sviluppo Precoce dell'Alaska (DEED) ha presentato una bozza di politica contenente riferimenti a studi accademici che semplicemente non esistevano.
La situazione si è verificata quando il commissario per l’istruzione dell’Alaska, Deena Bishop, ha utilizzato l’intelligenza artificiale generativa per elaborare la politica sui cellulari. Il documento prodotto dall’AI includeva presunti riferimenti accademici che non erano né verificati né accurati, tuttavia il documento non rivelava l’uso dell’IA nella sua preparazione. Alcuni dei contenuti generati dall’intelligenza artificiale hanno raggiunto l’Alaska State Board of Education and Early Development prima che potessero essere esaminati, influenzando potenzialmente le discussioni del consiglio.
Il commissario Bishop ha successivamente affermato che l’intelligenza artificiale era stata utilizzata solo per “creare citazioni” per una bozza iniziale e ha affermato di aver corretto gli errori prima della riunione inviando citazioni aggiornate ai membri del consiglio. Tuttavia, le “allucinazioni” dell’IA – informazioni fittizie generate quando l’IA tenta di creare contenuti plausibili ma non verificati – erano ancora presenti nel documento finale votato dal consiglio.
La risoluzione finale, pubblicata sul sito web del DEED, ordina al dipartimento di stabilire una politica modello per le restrizioni sui cellulari nelle scuole. Sfortunatamente, il documento includeva sei citazioni, quattro delle quali sembravano provenire da riviste scientifiche rispettate. Tuttavia, i riferimenti erano interamente inventati, con URL che portavano a contenuti non correlati. L’incidente mostra i rischi derivanti dall’utilizzo di dati generati dall’intelligenza artificiale senza un’adeguata verifica umana, soprattutto quando si prendono decisioni politiche.
Il caso dell'Alaska non è unico nel suo genere. Le allucinazioni legate all’intelligenza artificiale sono sempre più comuni in diversi settori professionali. Ad esempio, alcuni professionisti legali hanno dovuto affrontare conseguenze per l’utilizzo in tribunale di citazioni di casi fittizi generati dall’intelligenza artificiale. Allo stesso modo, i documenti accademici creati utilizzando l’intelligenza artificiale hanno incluso dati distorti e fonti false, presentando seri problemi di credibilità. Se lasciati senza controllo, gli algoritmi di intelligenza artificiale generativa, che hanno lo scopo di produrre contenuti basati su modelli piuttosto che su accuratezza fattuale, possono facilmente produrre citazioni fuorvianti.
La dipendenza dai dati generati dall’intelligenza artificiale nel processo decisionale, in particolare nel campo dell’istruzione, comporta rischi significativi. Quando le politiche vengono sviluppate sulla base di informazioni inventate, possono allocare in modo errato le risorse e potenzialmente danneggiare gli studenti. Ad esempio, una politica che limita l’uso dei cellulari sulla base di dati falsificati potrebbe distogliere l’attenzione da interventi più efficaci e basati sull’evidenza che potrebbero realmente avvantaggiare gli studenti.
Inoltre, l’utilizzo di dati IA non verificati può erodere la fiducia del pubblico sia nel processo decisionale che nella stessa tecnologia IA. Tali incidenti sottolineano l’importanza del controllo dei fatti, della trasparenza e della cautela quando si utilizza l’intelligenza artificiale in aree decisionali sensibili, soprattutto nell’istruzione, dove l’impatto sugli studenti può essere profondo.
I funzionari dell'Alaska hanno tentato di minimizzare la situazione, riferendosi alle citazioni inventate come “segnaposto” destinati a successive correzioni. Tuttavia, il documento con i “segnaposto” è stato comunque presentato al consiglio e utilizzato come base per una votazione, sottolineando la necessità di un controllo rigoroso sull’utilizzo dell’intelligenza artificiale.
(Foto di Studio Creativo Hartono)
Vedi anche: Anthropic sollecita una regolamentazione dell’IA per evitare catastrofi
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com