Il pregiudizio politico di ChatGPT evidenziato nello studio

 | Intelligenza-Artificiale

UN studio condotto da ricercatori informatici e di scienze dell’informazione del Regno Unito e del Brasile ha sollevato preoccupazioni sull’obiettività di ChatGPT.

I ricercatori affermano di aver scoperto sostanziali pregiudizi politici nelle risposte di ChatGPT, inclinati verso il lato sinistro dello spettro politico.

Pubblicato questa settimana sulla rivista Public Choice, lo studio – condotto da Fabio Motoki, Valdemar Pinho e Victor Rodrigues – sostiene che la presenza di pregiudizi politici nei contenuti generati dall’intelligenza artificiale potrebbe perpetuare i pregiudizi esistenti riscontrati nei media tradizionali.

La ricerca evidenzia il potenziale impatto di tale pregiudizio su varie parti interessate, tra cui politici, media, gruppi politici e istituzioni educative.

Utilizzando un approccio empirico, i ricercatori hanno utilizzato una serie di questionari per valutare l’orientamento politico di ChatGPT. Al chatbot è stato chiesto di rispondere a domande sulla bussola politica, catturando la sua posizione su varie questioni politiche.

Inoltre, lo studio ha esaminato scenari in cui ChatGPT impersonava sia un democratico medio che un repubblicano, rivelando la propensione intrinseca dell’algoritmo verso le risposte di tendenza democratica.

I risultati dello studio indicano che la parzialità di ChatGPT si estende oltre gli Stati Uniti ed è evidente anche nelle sue risposte riguardanti i contesti politici brasiliano e britannico. In particolare, la ricerca suggerisce addirittura che questa distorsione non è semplicemente un risultato meccanico ma una tendenza deliberata nell’output dell’algoritmo.

Determinare la fonte esatta del pregiudizio politico di ChatGPT rimane una sfida. I ricercatori hanno analizzato sia i dati di addestramento che l’algoritmo stesso, concludendo che entrambi i fattori probabilmente contribuiscono alla distorsione. Hanno evidenziato la necessità che la ricerca futura approfondisca la districazione di questi componenti per una comprensione più chiara delle origini del bias.

OpenAIl’organizzazione dietro ChatGPT, non ha ancora risposto ai risultati dello studio. Questo studio si aggiunge a un elenco crescente di preoccupazioni relative alla tecnologia dell’intelligenza artificiale, comprese le questioni relative alla privacy, all’istruzione e alla verifica dell’identità in vari settori.

Mentre l’influenza degli strumenti basati sull’intelligenza artificiale come ChatGPT continua ad espandersi, gli esperti e le parti interessate sono alle prese con le implicazioni dei contenuti distorti generati dall’intelligenza artificiale.

Quest’ultimo studio serve a ricordare che la vigilanza e la valutazione critica sono necessarie per garantire che le tecnologie di intelligenza artificiale siano sviluppate e utilizzate in modo giusto ed equilibrato, prive di indebite influenze politiche.

(Fotografato da Priscilla DuPreez SU Unsplash)

Guarda anche: Lo studio evidenzia l’impatto dei dati demografici sulla formazione dell’IA

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

  • Ryan Daws

    Ryan è un redattore senior presso TechForge Media con oltre un decennio di esperienza nella copertura delle tecnologie più recenti e nell’intervista a figure leader del settore. Spesso lo si vede alle conferenze tecnologiche con un caffè forte in una mano e un laptop nell’altra. Se è un genio, probabilmente gli piace. Trovatelo su Twitter (@Gadget_Ry) o Mastodon (@gadgetry@techhub.social)

tag: ai, intelligenza artificiale, pregiudizio, chatgpt, etica, openai, Politica, rapporto, ricerca, Società, studio

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *