AI DeepFakes Protection o Internet Freedom Minaped?

 | Intelligenza-Artificiale

I critici temono che il reviso di No Fakes Act si è trasformato dalla protezione mirata di AI DeepFakes in ampi poteri di censura.

Quello che è iniziato come un tentativo apparentemente ragionevole di affrontare DeepFakes Generato Ai è stato in neve in qualcosa di molto più preoccupante, secondo i sostenitori dei diritti digitali. La tanto disconnessa originali di nutrimento, arte affidata e mantieni la legge sugli intrattenimento al sicuro (nessun falso)-originariamente mirato a prevenire repliche digitali non autorizzate di persone-ora minaccia di alterare fondamentalmente come funziona in Internet.

L'espansione del disegno di legge ha fatto suonare campane di allarme in tutta la comunità tecnologica. È andato ben oltre la semplice protezione delle celebrità dai video falsi alla creazione potenzialmente di un quadro di censura.

Dalle salvaguardie sensate all'approccio della mazza

L'idea iniziale non era del tutto fuorviata: creare protezioni contro i sistemi di intelligenza artificiale che generano video falsi di persone reali senza permesso. Abbiamo visto tutti quei profondità inquietanti circolare online.

Ma piuttosto che creare misure strette e mirate, i legislatori hanno optato per ciò che il Fondazione di frontiera elettronica Chiama un “sistema federalizzato di licenza per immagini” che va ben oltre le protezioni ragionevoli.

“La fattura aggiornata raddoppia su quell'approccio errato iniziale”, osserva l'EFF, “imponendo un'infrastruttura di censura completamente nuova per quel sistema, che comprende non solo immagini ma prodotti e servizi utilizzati per crearle”.

Ciò che è particolarmente preoccupante è il requisito del No Fakes Act per quasi tutte le piattaforme Internet per implementare sistemi che non solo rimuoverebbero i contenuti dopo aver ricevuto avvisi di rimozione, ma anche impedire che contenuti simili vengano caricati di nuovo. In sostanza, sta costringendo le piattaforme a distribuire filtri di contenuto che si sono dimostrati notoriamente inaffidabili in altri contesti.

Innovazione-ghvering

Forse più preoccupante per il settore dell'IA è il modo in cui il No Fakes Act si rivolge agli strumenti stessi. Il disegno di legge rivisto non avrebbe semplicemente seguito contenuti dannosi; Poterebbe potenzialmente chiudere intere piattaforme di sviluppo e strumenti software che potrebbero essere utilizzati per creare immagini non autorizzate.

Questo approccio sembra ricordare di provare a vietare gli elaboratori di testi perché qualcuno potrebbe usarne uno per scrivere contenuti diffamatori. Il disegno di legge include alcune limitazioni (EG Strumenti devono essere “progettati principalmente” per realizzare repliche non autorizzate o avere altri usi commerciali limitati) ma queste distinzioni sono notoriamente soggette a interpretazione.

Le piccole startup del Regno Unito che si avventurano nella generazione di immagini di AI potrebbero trovarsi catturate in costose battaglie legali basate su fragili accuse molto prima che abbiano la possibilità di affermarsi. Nel frattempo, i giganti tecnologici con eserciti di avvocati possono essere messi meglio su tali tempeste, potenzialmente radicando il loro dominio.

Chiunque abbia affrontato il sistema contenuto di YouTube o simili strumenti di filtraggio del copyright sa quanto possono essere frustranti. Questi sistemi segnalano abitualmente contenuti legittimi come i musicisti che eseguono le proprie canzoni o creatori usando materiale in disposizioni equo.

La NO FAKES Act imponenterebbe effettivamente sistemi di filtraggio simili su Internet. Mentre include intagliati per parodia, satira e commenti, l'applicazione di queste distinzioni si è dimostrata praticamente impossibile.

“Questi sistemi spesso segnalano cose simili ma non uguali”, spiega l'EFF, “come due persone diverse che suonano lo stesso pezzo di musica di dominio pubblico”.

Per piattaforme più piccole senza risorse su scala Google, l'implementazione di tali filtri potrebbe rivelarsi proibitivamente costosa. Il risultato probabile? Molti sarebbero semplicemente troppo censurati per evitare il rischio legale.

In effetti, ci si potrebbe aspettare che le principali aziende tecnologiche si oppongano a tale ampio regolamento. Tuttavia, molti sono rimasti evidentemente silenziosi. Alcuni osservatori del settore suggeriscono che ciò non è un caso: i giganti stabiliti possono assorbire più facilmente i costi di conformità che schiacciano i concorrenti più piccoli.

“Probabilmente non è una coincidenza che alcuni di questi stessi giganti siano d'accordo con questa nuova versione di No Fakes”, osserva l'EFF.

Questo modello si ripete durante la storia della regolamentazione tecnologica: ciò che sembra essere regolarmente regnante in Big Tech spesso finisce per consolidare la loro posizione di mercato creando barriere troppo costose da superare per i nuovi arrivati.

Nessun Act Fakes minaccia un discorso anonimo

Nascosto nella legislazione è un'altra disposizione preoccupante che potrebbe esporre utenti di Internet anonimi in base a semplici accuse. Il disegno di legge consentirebbe a chiunque di ottenere una citazione da un impiegato del tribunale – senza revisione giudiziaria o prove – costringendo i servizi a rivelare le informazioni di identificazione sugli utenti accusati di creare repliche non autorizzate.

La storia mostra che tali meccanismi sono maturi per l'abuso. I critici con punti validi possono essere smascherati e potenzialmente molestati quando il loro commento include screenshot o citazioni delle stesse persone che cercano di zittirli.

Questa vulnerabilità potrebbe avere un profondo effetto sulla critica legittima e sulle infazioni. Immagina di esporre una cattiva condotta aziendale solo per rivelare la tua identità attraverso un processo di citazione in fase di gomma.

Questa spinta per ulteriori regolamenti sembra strana dato che il Congresso ha recentemente approvato l'atto di Take It Down, che ha già preso di mira immagini che coinvolgono contenuti intimi o sessuali. Tale legislazione stessa ha sollevato preoccupazioni sulla privacy, in particolare sul monitoraggio delle comunicazioni crittografate.

Invece di valutare gli impatti della legislazione esistente, i legislatori sembrano determinati a avanzare con restrizioni più ampie che potrebbero rimodellare la governance di Internet per decenni a venire.

Le prossime settimane si riveleranno fondamentali mentre il No Fakes Act si muove attraverso il processo legislativo. Per chiunque apprezzi la libertà di Internet, l'innovazione e gli approcci equilibrati alle sfide tecnologiche emergenti, questo porta davvero una visione stretta.

(Foto di Markus Spiske)

Vedi anche: I file OpenIAI: Ex Staff reclamo Profit Greed che tradisce la sicurezza dell'IA

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *