
Meta sta rivedendo il modo in cui i suoi chatbot AI interagiscono con gli utenti dopo una serie di report esposti comportamenti preoccupanti, comprese le interazioni con i minori. La compagnia ha detto TechCrunch Ora sta allenando i suoi robot a non impegnarsi con adolescenti su argomenti come autolesionismo, suicidio o disturbi alimentari e per evitare battute romantiche. Questi sono passaggi temporanei mentre sviluppa regole a lungo termine.
Le modifiche seguono a Reuters Le indagini che hanno scoperto che i sistemi di Meta potevano generare contenuti sessualizzati, comprese le immagini senza camicia di celebrità minorenni, e coinvolgere i bambini in conversazioni romantiche o suggestive. Un caso riportato dall’agenzia di stampa ha descritto un uomo che muore dopo aver corretto a un indirizzo fornito da un chatbot a New York.
La portavoce di Meta Stephanie Otway ha ammesso che la compagnia aveva commesso errori. Ha detto che Meta sta “addestrando i nostri IA a non interagire con gli adolescenti su questi argomenti, ma per guidarli a risorse di esperti” e ha confermato che alcuni personaggi di intelligenza artificiale, come quelli altamente sessualizzati come “ragazza russa”, saranno limitati.
I sostenitori della sicurezza dei bambini sostengono che la società avrebbe dovuto agire in precedenza. Andy Burrows della Molly Rose Foundation ha definito “stupefacente” che i robot potessero operare in modi che mettono a rischio i giovani. Ha aggiunto: “Mentre sono benvenute ulteriori misure di sicurezza, dovrebbero avvenire robusti test di sicurezza prima che i prodotti vengano messi sul mercato, non retrospettivamente quando hanno avuto luogo un danno”.
Problemi più ampi con l’uso improprio dell’IA
Il controllo dei chatbot di AI di Meta arriva tra le preoccupazioni più ampie su come i chatbot AI possono influenzare gli utenti vulnerabili. Una coppia della California ha recentemente intentato una causa contro Openai, sostenendo che Chatgpt ha incoraggiato il loro figlio adolescente a togliersi la vita. Da allora Openai ha affermato che sta lavorando su strumenti per promuovere l’uso più sano della sua tecnologia, rilevando in un post sul blog che “l’intelligenza artificiale può sentirsi più reattiva e personale delle tecnologie precedenti, in particolare per le persone vulnerabili che vivono angoscia mentale o emotiva”.
Gli incidenti evidenziano un crescente dibattito sul fatto che le aziende di intelligenza artificiale stanno rilasciando prodotti troppo rapidamente senza adeguate garanzie. I legislatori in diversi paesi hanno già avvertito che i chatbot, sebbene utili, possono amplificare contenuti dannosi o dare consigli fuorvianti alle persone che non sono attrezzate per metterlo in discussione.
Problemi di imitazione di AI e Chatbot di Meta
Nel frattempo, Reuters ha riferito che lo studio AI di Meta era stato utilizzato per creare flittati chatbot “parodia” di celebrità come Taylor Swift e Scarlett Johansson. I tester hanno scoperto che i robot hanno spesso affermato di essere le persone reali, impegnati in progressi sessuali e in alcuni casi hanno generato immagini inappropriate, anche di minori. Sebbene Meta abbia rimosso molti dei robot dopo essere stato contattato dai giornalisti, molti sono stati lasciati attivi.
Alcuni dei chatbot dell’IA sono stati creati da utenti esterni, ma altri provenivano da Meta. Un chatbot realizzato da un protagonista nella sua divisione AI generativa ha impersonato Taylor Swift e ha invitato a Reuters Reporter per incontrarsi per una “fuga romantica” sul suo autobus turistico. Ciò nonostante le politiche di Meta vietano esplicitamente le immagini sessualmente suggestive e la diretta imitazione di personaggi pubblici.
Il problema dell’impersonazione di chatbot AI è particolarmente sensibile. Le celebrità affrontano rischi reputazionali quando la loro somiglianza viene utilizzata in modo improprio, ma gli esperti sottolineano che anche gli utenti ordinari possono essere ingannati. Un chatbot che finge di essere un amico, un mentore o un partner romantico può incoraggiare qualcuno a condividere informazioni private o addirittura incontrarsi in situazioni non sicure.
Rischi del mondo reale
I problemi non sono limitati all’intrattenimento. I chatbot di AI in posa come persone reali hanno offerto indirizzi e inviti falsi, sollevando domande su come vengono monitorati gli strumenti di AI di Meta. Un esempio ha coinvolto un uomo di 76 anni nel New Jersey che è morto dopo essere caduto mentre si precipitava per incontrare un chatbot che affermava di provare sentimenti per lui.
Casi come questo illustrano perché i regolatori stanno guardando da vicino l’IA. Il Senato e 44 procuratori statali hanno già iniziato a indagare sulle pratiche di Meta, aggiungendo pressione politica alle riforme interne della società. La loro preoccupazione non riguarda solo i minori, ma anche il modo in cui l’IA potrebbe manipolare gli utenti più vecchi o vulnerabili.
Meta afferma che sta ancora lavorando ai miglioramenti. Le sue piattaforme collocano gli utenti di età compresa tra 13 e 18 Reuters. Ciò include i robot che offrono falsi consigli medici e la generazione di contenuti razzisti.
Pressione in corso sulle politiche di chatbot di AI di Meta
Per anni, Meta ha affrontato critiche sulla sicurezza delle sue piattaforme di social media, in particolare per quanto riguarda i bambini e gli adolescenti. Ora gli esperimenti di chatbot AI di Meta stanno disegnando un controllo simile. Mentre la società sta prendendo provvedimenti per limitare il comportamento dannoso di chatbot, il divario tra le politiche dichiarate e il modo in cui i suoi strumenti sono stati utilizzati sollevano domande in corso sul fatto che possa far rispettare tali regole.
Fino a quando non saranno in atto protezioni più forti, i regolatori, i ricercatori e i genitori probabilmente continueranno a spingere la meta sul fatto che la sua AI sia pronta per uso pubblico.
(Foto di Maxim Tolchinskiy)
Vedi anche: AI agente: promessa, scetticismo e il suo significato per il sud -est asiatico
Vuoi saperne di più sull’intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L’evento completo fa parte di Techex e co-localizzato con altri eventi tecnologici leader. Clic Qui Per ulteriori informazioni.
AI News è alimentato da TechForge Media. Esplora altri prossimi eventi tecnologici aziendali e webinar Qui.
Fonte: www.artificialintelligence-news.com