X accetta di interrompere l'uso di alcuni dati UE per la formazione di chatbot AI

 | Intelligenza-Artificiale

Di recente, l'Unione Europea è diventata il centro della scena di una controversia sulla privacy dei dati relativa alla piattaforma di social media X.

L'8 agosto, un tribunale irlandese ha dichiarato che X aveva accettato di sospendere l'uso di tutti i dati appartenenti a cittadini dell'Unione Europea, che erano stati raccolti tramite la piattaforma allo scopo di addestrare i sistemi di intelligenza artificiale dell'azienda. Come riportato da I tempi economiciQuesta iniziativa è stata sollecitata dai reclami della Commissione per la protezione dei dati (DPC) dell'Irlanda, il principale regolatore dell'UE per molte grandi aziende tecnologiche statunitensi che hanno la loro sede principale in Irlanda, ai sensi della legislazione dell'UE.

L'intervento del DPC, che agisce in questo modo, avviene in un contesto di controllo intensificato delle pratiche di sviluppo dell'IA in tutta l'UE da parte dei giganti della tecnologia. Di recente, l'organismo di regolamentazione ha chiesto un ordine per limitare o sospendere le attività di elaborazione dati di X sugli utenti per lo sviluppo, la formazione e il perfezionamento di un sistema di IA. Questa situazione descrive chiaramente il crescente conflitto o tensione sperimentato da quasi tutti gli stati dell'UE tra i progressi dell'IA e le preoccupazioni in corso sulla protezione dei dati.

Sembra che l'ordine sia stato emesso troppo tardi dagli enti regolatori e dal tribunale. Nella risposta depositata per la causa, X, di proprietà di Elon Musk, ha riferito che Grok, un chatbot AI, ha consentito ai suoi utenti di saltare i loro post pubblici.

Come ha osservato il giudice Leonie Reynolds, X ha iniziato a elaborare i dati degli utenti europei per la formazione AI il 7 maggio, ma l'opzione di opt-out non è stata introdotta fino al 16 luglio. Inoltre, non è stata resa immediatamente disponibile a tutti gli utenti. Pertanto, c'è stato un periodo in cui i dati sono stati utilizzati senza il consenso degli utenti.

La rappresentanza legale di X ha assicurato alla corte che i dati ottenuti dagli utenti UE tra il 7 maggio e il 1° agosto non saranno utilizzati mentre l'ordine del DPC è in fase di valutazione. Si prevede che X presenterà documenti di opposizione contro l'ordine di sospensione entro il 4 settembre. Ciò metterà in moto quella che potrebbe essere una battaglia legale con effetti che si riverberano in tutta l'UE.

In ogni caso, X non è rimasto in silenzio sulla questione. Nella sua dichiarazionel'account Global Government Affairs dell'azienda su X ha osservato che l'ordine del DPC era “ingiustificato, troppo ampio e individua X senza alcuna giustificazione”. Inoltre, l'azienda ha espresso preoccupazioni sul fatto che l'ordine avrebbe minato gli sforzi per mantenere la piattaforma sicura e limitare l'uso delle tecnologie nell'UE. Ciò evidenzia il complesso equilibrio tra conformità normativa e fattibilità operativa che le aziende tecnologiche devono gestire nell'attuale panorama digitale.

La piattaforma ha sottolineato il suo approccio proattivo nel collaborare con gli enti regolatori, tra cui il DPC, in merito a Grok dalla fine del 2023. X afferma di essere stato completamente trasparente sull'uso dei dati pubblici per i modelli di intelligenza artificiale, inclusa la fornitura delle necessarie valutazioni legali e l'impegno in lunghe discussioni con gli enti regolatori.

Questa azione normativa contro X non è un incidente isolato. Altri giganti della tecnologia hanno affrontato un esame simile negli ultimi mesi. Meta Platforms ha recentemente deciso di posticipare il lancio dei suoi modelli Meta AI in Europa seguendo il consiglio del DPC irlandese. Allo stesso modo, Google ha accettato di ritardare e modificare il suo chatbot Gemini AI all'inizio di quest'anno dopo consultazioni con l'ente regolatore irlandese.

Questi sviluppi segnalano collettivamente un cambiamento nel panorama normativo dell'IA e dell'utilizzo dei dati nell'UE. Gli enti regolatori stanno assumendo un ruolo più attivo nel supervisionare il modo in cui le aziende tecnologiche utilizzano i dati degli utenti per la formazione e lo sviluppo dell'IA, riflettendo le crescenti preoccupazioni sulla privacy dei dati e sulle implicazioni etiche del progresso dell'IA.

Con lo svolgersi dei procedimenti legali, l'esito di questo caso potrebbe stabilire importanti precedenti su come lo sviluppo dell'IA è regolamentato nell'UE, influenzando potenzialmente gli standard globali per la protezione dei dati nell'era dell'IA. Sia l'industria tecnologica che i sostenitori della privacy osserveranno attentamente l'evolversi di questa situazione, riconoscendone il potenziale per plasmare il futuro dell'innovazione dell'IA e delle normative sulla privacy dei dati.

(Foto di Aleksandr Šatov)

Vedi anche: Equilibrio tra innovazione e fiducia: gli esperti valutano l'AI Act dell'UE

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera AI e Big Data che si svolge ad Amsterdam, California e Londra. L'evento completo è co-localizzato con altri eventi leader tra cui Conferenza sull'automazione intelligente, BloccoX, Settimana della Trasformazione DigitaleE Fiera della sicurezza informatica e del cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Etichette: intelligenza artificiale, chatbot, riservatezza dei dati

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *