Google si impegna a correggere la generazione di immagini imprecise e distorte di Gemini

 | Intelligenza-Artificiale

Quello di Google Gemelli Il modello è stato criticato per la sua produzione di immagini storicamente imprecise e distorte dal punto di vista razziale, riaccendendo le preoccupazioni sui pregiudizi nei sistemi di intelligenza artificiale.

La controversia è nata quando gli utenti sulle piattaforme di social media hanno inondato i feed con esempi di Gemelli che generano immagini raffiguranti nazisti razzialmente diversi, re inglesi medievali neri e altri scenari improbabili.

Nel frattempo, i critici hanno anche sottolineato il rifiuto di Gemini di rappresentare i caucasici, le chiese di San Francisco per rispetto della sensibilità indigena e eventi storici delicati come Piazza Tiananmen nel 1989.

In risposta al contraccolpo, Jack Krawczyk, responsabile del prodotto Gemini Experiences di Google, ha riconosciuto il problema e si è impegnato a risolverlo. Krawczyk si è rivolto alla piattaforma di social media X per rassicurare gli utenti:

Per ora, Google afferma che sta mettendo in pausa la generazione di immagini delle persone:

Pur riconoscendo la necessità di affrontare la diversità nei contenuti generati dall’intelligenza artificiale, alcuni sostengono che la risposta di Google sia stata una correzione eccessiva.

Marc Andreessen, co-fondatore di Netscape e a16z, ha recentemente creato un modello di parodia dell’intelligenza artificiale “scandalosamente sicuro” chiamato Goody-2 LLM che si rifiuta di rispondere a domande ritenute problematiche. Andreessen mette in guardia da una tendenza più ampia verso la censura e i pregiudizi nei sistemi di intelligenza artificiale commerciali, sottolineando le potenziali conseguenze di tali sviluppi.

Affrontando le implicazioni più ampie, gli esperti evidenziano la centralizzazione dei modelli di intelligenza artificiale sotto alcune grandi aziende e sostengono lo sviluppo di modelli di intelligenza artificiale open source per promuovere la diversità e mitigare i pregiudizi.

Yann LeCun, capo scienziato dell’intelligenza artificiale di Meta, ha sottolineato l’importanza di promuovere un ecosistema diversificato di modelli di intelligenza artificiale simili alla necessità di una stampa libera e diversificata:

Bindu Reddy, CEO di Abacus.AI, ha preoccupazioni simili riguardo alla concentrazione del potere senza un sano ecosistema di modelli open source:

Man mano che continuano le discussioni sulle implicazioni etiche e pratiche dell’IA, la necessità di quadri di sviluppo dell’IA trasparenti e inclusivi diventa sempre più evidente.

(Fotografato da Matt Artz SU Unsplash)

Guarda anche: Secondo quanto riferito, Reddit vende dati per la formazione sull’intelligenza artificiale

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è collocato in contemporanea con altri eventi importanti, tra cui BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, intelligenza artificiale, pregiudizio, chatbot, diversità, etica, Gemelli, Google, Google Gemelli, generazione di immagini, Modello, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *