Meta formerà i modelli AI utilizzando i dati dell'utente UE

 | Intelligenza-Artificiale

Meta ha confermato i piani per utilizzare i contenuti condivisi dai suoi utenti adulti nell'UE (Unione Europea) per formare i suoi modelli AI.

L'annuncio segue il recente lancio delle caratteristiche di Meta AI in Europa e mira a migliorare le capacità e la rilevanza culturale dei suoi sistemi AI per la diversa popolazione della regione.

In una dichiarazione, Meta ha scritto: “Oggi stiamo annunciando i nostri piani per formare l'IA in Meta usando contenuti pubblici – come i post e i commenti pubblici – condivisi dagli adulti sui nostri prodotti nell'UE.

“Le interazioni delle persone con Meta AI – come domande e domande – saranno anche utilizzate per addestrare e migliorare i nostri modelli.”

A partire da questa settimana, gli utenti delle piattaforme di Meta (tra cui Facebook, Instagram, WhatsApp e Messenger) all'interno dell'UE riceveranno notifiche che spiegano l'utilizzo dei dati. Queste notifiche, consegnate sia in-app che via e-mail, descriveranno in dettaglio i tipi di dati pubblici coinvolti e si collegano a un modulo di obiezione.

“Abbiamo reso questa forma di obiezione facile da trovare, leggere e utilizzare e onoreremo tutte le forme di obiezione che abbiamo già ricevuto, oltre a quelle appena presentate”, ha spiegato Meta.

Meta ha chiarito esplicitamente che alcuni tipi di dati rimangono off-limits per scopi di formazione AI.

La società afferma che non “utilizzerà i messaggi privati ​​delle persone con amici e familiari” per addestrare i suoi modelli AI generativi. Inoltre, i dati pubblici associati a account appartenenti agli utenti di età inferiore ai 18 anni nell'UE non saranno inclusi nei set di dati di formazione.

Meta vuole costruire strumenti AI progettati per gli utenti dell'UE

Meta posiziona questa iniziativa come un passo necessario verso la creazione di strumenti di intelligenza artificiale progettati per gli utenti dell'UE. Meta ha lanciato la sua funzionalità di AI Chatbot attraverso le sue app di messaggistica in Europa il mese scorso, inquadrando questo utilizzo dei dati come fase successiva per migliorare il servizio.

“Riteniamo di avere la responsabilità di costruire AI che non è solo disponibile per gli europei, ma in realtà è costruita per loro”, ha spiegato la società.

“Ciò significa tutto, dai dialetti e nei colloquiali, alla conoscenza iper-locale e ai modi distinti di diversi paesi usano umorismo e sarcasmo sui nostri prodotti.”

Ciò diventa sempre più pertinente quando i modelli di AI si evolvono con capacità multimodali che abbracciano testo, voce, video e immagini.

Meta ha anche situato le sue azioni nell'UE all'interno del più ampio panorama del settore, sottolineando che la formazione dell'IA sui dati degli utenti è una pratica comune.

“È importante notare che il tipo di formazione sull'intelligenza artificiale che stiamo facendo non è unico per il meta, né sarà unico per l'Europa”, si legge nella dichiarazione.

“Stiamo seguendo l'esempio dato da altri tra cui Google e Openai, entrambi i quali hanno già utilizzato i dati degli utenti europei per formare i loro modelli AI.”

Meta ha inoltre affermato che il suo approccio supera gli altri nell'apertura, affermando: “Siamo orgogliosi che il nostro approccio sia più trasparente di molte delle nostre controparti del settore”.

Per quanto riguarda la conformità normativa, il Meta ha fatto riferimento al precedente impegno con i regolatori, incluso un ritardo avviato lo scorso anno in attesa di chiarimenti sui requisiti legali. La società ha anche citato un'opinione favorevole da Commissione europea per la protezione dei dati (EDPB) nel dicembre 2024.

“Diamo il benvenuto all'opinione fornita dall'EDPB a dicembre, che ha affermato che il nostro approccio originale ha soddisfatto i nostri obblighi legali”, ha scritto Meta.

Preoccupazioni più ampie per i dati di formazione AI

Mentre Meta presenta il suo approccio nell'UE come trasparente e conforme, la pratica di utilizzare vaste fasce di dati degli utenti pubblici da piattaforme di social media per formare modelli di grandi dimensioni (LLM) e l'IA generativa continua a sollevare preoccupazioni significative tra i sostenitori della privacy.

In primo luogo, la definizione di dati “pubblici” può essere controversa. I contenuti condivisi pubblicamente su piattaforme come Facebook o Instagram potrebbero non essere stati pubblicati con l'aspettativa che diventerebbe materia prima per la formazione di sistemi di intelligenza artificiale commerciale in grado di generare contenuti o approfondimenti completamente nuovi. Gli utenti potrebbero condividere aneddoti personali, opinioni o opere creative pubblicamente all'interno della loro comunità percepita, senza prevedere la sua analisi su larga scala e automatizzata e il riutilizzo del proprietario della piattaforma.

In secondo luogo, l'efficacia e l'equità di un sistema di “opt-out” rispetto a un sistema “opt-in” rimangono discutibili. Posizionare l'onere sugli utenti per obiettare attivamente, spesso dopo aver ricevuto notifiche sepolte tra innumerevoli altri, solleva domande sul consenso informato. Molti utenti potrebbero non vedere, comprendere o agire in seguito alla notifica, portando potenzialmente ai loro dati utilizzati per impostazione predefinita piuttosto che autorizzazione esplicita.

In terzo luogo, la questione del pregiudizio intrinseco incombe. Le piattaforme di social media riflettono e talvolta amplificano pregiudizi socialitra cui razzismo, sessismo e disinformazione. Modelli di intelligenza artificiale addestrati su questi dati per l'apprendimento, la replica e persino il ridimensionamento di questi pregiudizi. Mentre le aziende impiegano tecniche di filtraggio e di perfezionamento, l'eradicazione della distorsione assorbita da miliardi di punti dati è una sfida immensa. Un'intelligenza artificiale formata sui dati pubblici europei ha bisogno di un'attenta cura per evitare di perpetuare stereotipi o generalizzazioni dannose sulle culture stesse che mira a capire.

Inoltre, domande Copyright circostante e la proprietà intellettuale persiste. I post pubblici spesso contengono testo, immagini e video originali creati dagli utenti. Utilizzando questo contenuto per formare modelli di intelligenza artificiale commerciale, che possono quindi generare contenuti concorrenti o derivare da esso, inserendo un territorio legale oscuro per quanto riguarda la proprietà e il risarcimento equo, attualmente in fase di contestazione in tribunali in tutto il mondo che coinvolgono vari sviluppatori di intelligenza artificiale.

Infine, mentre Meta evidenzia la sua trasparenza rispetto ai concorrenti, i meccanismi effettivi di selezione dei dati, filtraggio e il suo impatto specifico sul comportamento del modello spesso rimangono opachi. La trasparenza veramente significativa comporterebbe approfondimenti più profondi su come i dati specifici influenzano gli output di intelligenza artificiale e le garanzie in atto per prevenire l'abuso o le conseguenze indesiderate.

L'approccio adottato da Meta nell'UE sottolinea gli immensi Giganti della tecnologia del valore sui contenuti generati dagli utenti come combustibile per l'economia in crescita dell'IA. Man mano che queste pratiche diventano più diffuse, il dibattito sulla privacy dei dati, il consenso informato, la distorsione algoritmica e le responsabilità etiche degli sviluppatori di intelligenza artificiale si intensificheranno senza dubbio in Europa e oltre.

(Foto di Julio Lopez)

Vedi anche: Apple Ai sottolinea la privacy con dati sintetici e anonimi

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *