Su deepfake, autenticità e ordine esecutivo del presidente sull’intelligenza artificiale

Riesci a rilevare il falso? fotografato da Libertà Ann SU Unsplash

Una delle tante questioni etiche interessanti che derivano dai progressi dell’intelligenza artificiale generativa è rilevazione del prodotto di modelli. È anche una questione pratica, per quelli di noi che consumano i media. Ciò che sto leggendo o guardando è il prodotto del lavoro ponderato di una persona, o sono solo parole o immagini generate probabilisticamente per attirarmi? Importa? Se sì, cosa facciamo?

Quando parliamo di contenuti difficili o impossibili da rilevare come generati dall’intelligenza artificiale, stiamo entrando in qualcosa di simile a un test di Turing. Supponiamo che ti do un paragrafo di testo o un file immagine. Se ti chiedo: “è stato prodotto da un essere umano o da un modello di apprendimento automatico?”, e non puoi dirlo con precisione, allora siamo arrivati ​​al punto in cui dobbiamo pensare a questi problemi.

In molte aree siamo vicini a questo, soprattutto con GPT-4, ma anche con modelli meno sofisticati, a seconda del tipo di suggerimento che utilizziamo e del volume del contesto. Se abbiamo un documento lungo da un modello GPT, probabilmente sarà più facile rilevare che non è generato dall’uomo, perché ogni nuova parola è un’opportunità per il modello di fare qualcosa che una persona normale non farebbe. Lo stesso vale per un video o un’immagine ad alta risoluzione: maggiori sono le possibilità che appaiano la pixellazione o la misteriosa valle, maggiore è la possibilità per noi di individuare il falso.

Mi sembra anche chiaro che man mano che acquisiamo maggiore familiarità con i contenuti generati dai modelli, miglioreremo nell’identificare i segni rivelatori del coinvolgimento dell’intelligenza artificiale nel contenuto. Proprio come ho descritto diverse settimane fa nella mia spiegazione su come funzionano le reti generative avversarie, anche noi siamo in una sorta di relazione GAN con l’intelligenza artificiale generativa. I modelli stanno lavorando per creare contenuti il ​​più possibile simili a quelli umani e stiamo aumentando la nostra capacità di riconoscere che non sono umani. È come una gara in cui ciascuna parte lavora per superare in astuzia l’altra.

Man mano che acquisiamo maggiore familiarità con i contenuti generati dai modelli, miglioreremo nell’identificare i segni rivelatori del coinvolgimento dell’intelligenza artificiale nel contenuto.

Tuttavia, probabilmente c’è un limite alla precisione con cui possiamo ottenere questo rilevamento, e i modelli prevarranno sui normali occhi e orecchie umane (se non l’hanno già fatto). Semplicemente non abbiamo le capacità sensoriali e la sofisticatezza nel riconoscimento dei modelli che un modello gigante può avere. Fortunatamente, possiamo utilizzare i modelli come strumenti anche dalla nostra parte della razza, addestrando i modelli a esaminare attentamente i contenuti e determinare che non sono generati dall’uomo, quindi questo è uno strumento nella nostra faretra.

Ad un certo punto, però, per alcuni contenuti potrebbe non esserci alcun segno rilevabile in modo affidabile dell’origine del machine learning, soprattutto in piccole quantità. Filosoficamente parlando, dato il progresso illimitato del modello, probabilmente c’è un punto in cui non esiste alcuna reale differenza tra i due tipi di contenuto. Inoltre, la maggior parte di noi non utilizzerà un modello per testare tutti i media che consumiamo per assicurarsi che siano generati dall’uomo e autentici. In risposta, alcune organizzazioni, come la Iniziativa sull’autenticità dei contenutistanno guidando gli sforzi per ottenere un’ampia adozione dei metadati di autenticazione dei contenuti, il che potrebbe essere di aiuto. Questo tipo di sforzi, tuttavia, richiedono buona volontà e lavoro da parte di coloro che rendono disponibili i modelli.

Ad un certo punto, però, per alcuni contenuti potrebbe non esserci alcun segno rilevabile in modo affidabile dell’origine del machine learning.

Potresti chiederti, beh, che dire delle persone che sono intenzionalmente cattivi attori che cercano di creare danni con deepfake o disinformazione utilizzando contenuti generati dall’intelligenza artificiale? Non si offriranno volontari per identificare il loro contenuto, vero? È una domanda giusta. Tuttavia, almeno in questo momento, i modelli sufficientemente sofisticati da ingannare le persone su larga scala sono per lo più sotto il controllo di grandi aziende (OpenAI, ecc.). Questo non continuerà ad essere così, ma in questo momento almeno inciderebbe notevolmente sulla questione della provenienza se le persone che servono al pubblico i LLM più sofisticati prendessero qualche azione al riguardo.

Questa non è una storia molto ottimistica, finora. L’intelligenza artificiale generativa si sta rapidamente dirigendo verso un luogo in cui questi modelli molto potenti sono abbastanza piccoli da consentire ai malintenzionati di gestirli da soli e in cui tali modelli creano facilmente contenuti che sono letteralmente indistinguibili dal contenuto umano organico, anche da altri modelli.

Sono andato un po’ troppo avanti, però. Perché è così importante per tutti capire in primo luogo se i contenuti provengono da un modello? Se non puoi dirlo, ha importanza?

Uno dei motivi principali è che chi fornisce i contenuti potrebbe avere intenzioni dannose, come disinformazione o deepfake. La creazione di immagini, audio e video è lo scenario più comune in questo caso: far sembrare che qualcuno abbia detto o fatto qualcosa che non ha fatto. Se hai seguito il Ordine esecutivo del presidente degli Stati Uniti sull’intelligenza artificialepotresti aver sentito che il presidente Biden in realtà si è interessato a questo perché ha sentito parlare della possibilità che le persone usino la sua immagine e la sua voce in modo fraudolento per disinformazione. Si tratta di una questione molto seria, perché in questo momento tendiamo a fidarci di ciò che vediamo con i nostri occhi nelle immagini o nei video e che può avere un impatto significativo sulla vita e sulla sicurezza delle persone.

In questo momento tendiamo a fidarci di ciò che vediamo con i nostri occhi nelle immagini o nei video e ciò può avere un impatto significativo sulla vita e sulla sicurezza delle persone.

Un problema correlato si verifica quando i modelli vengono utilizzati per imitare il lavoro di specifici esseri umani non per ragioni necessariamente dannose, ma solo perché quel lavoro è divertente, popolare e potenzialmente redditizio. È chiaramente immorale, ma nella maggior parte dei casi probabilmente non è inteso a ferire attivamente né il pubblico né la persona che viene imitata. (Fa male alle persone, ovviamente, togliendo il potenziale di guadagno e i mezzi di sussistenza di artisti e scrittori, di cui i produttori di contenuti dovrebbero assumersi la responsabilità.) Ciò può anche causare danni alla reputazione quando i deepfake vengono utilizzati per mentire sulle azioni delle persone. (Chiedi e basta Joe Rogan, che si batte contro la pubblicità usando la sua somiglianza nei deepfake.)

Un terzo punto di vista a cui ho iniziato a pensare dopo che Casey Newton ne ha discusso nel suo Numero del 5 ottobre di Platformer c’è il rischio che i personaggi pubblici possano ribaltare la questione e affermare che le prove reali e autentiche del loro cattivo comportamento siano generate artificialmente. Cosa facciamo quando non possiamo scoprire in modo affidabile i misfatti utilizzando le prove, perché “è un deepfake” è una risposta non falsificabile? Non siamo ancora arrivati ​​a quel punto, ma potrei vedere che questo diventerà un vero problema in un futuro non troppo lontano.

Cosa facciamo quando non possiamo scoprire in modo affidabile i misfatti utilizzando le prove, perché “è un deepfake” è una risposta non falsificabile?

Meno urgentemente, penso anche che ci sia qualcosa nel volere che il mio consumo di media rappresenti un coinvolgimento con un’altra persona, anche se si tratta di un movimento di idee principalmente a senso unico. Penso che leggere o consumare l’arte sia un coinvolgimento con i pensieri di un’altra persona, e impegnarsi con le parole messe insieme da un modello non ha proprio la stessa sensazione. Quindi, personalmente, mi piacerebbe sapere se il contenuto che sto consumando è prodotto dall’uomo.

Considerati tutti questi rischi molto reali, ci troviamo di fronte ad alcune sfide serie. Sembra esserci un compromesso tra la provenienza rilevabile (significato, sicurezza per il grande pubblico e tutte le questioni che ho descritto sopra) e la sofisticazione del modello e, come settore, la scienza dei dati sta avanzando sul lato della sofisticazione del modello. Chi riequilibrerà la bilancia?

L’ordine esecutivo del presidente rappresenta un progresso significativo su questo argomento. (Si parla anche di molte altre questioni importanti, di cui potrei discutere un’altra volta.) Ho passato l’ultima settimana e mezza a pensare a questo ordine esecutivo e a leggere i punti di vista di altre persone da tutto il settore. Anche se c’è chi sostiene che soffocherà il progresso (e che reificherà i grandi attori dell’intelligenza artificiale generativa, a scapito dei concorrenti più piccoli), penso di essere arrivato al punto di essere ottimista riguardo all’ordine esecutivo.

La creazione di modelli di intelligenza artificiale generativa competitiva è incredibilmente costosa e richiede molte risorse, e questo limita naturalmente il numero di concorrenti che possono entrare in questo spazio. Proteggere ipotetici nuovi attori in questo spazio a scapito di una più ampia sicurezza sociale non ha senso per me. Inoltre, non penso che l’ordine esecutivo sia affatto oneroso per quelle organizzazioni che hanno le risorse per essere presenti in questa stanza in primo luogo.

Anche l’ordinanza in sé non è così prescrittiva. Richiede la creazione di una serie di cose, ma lascia ampia libertà su come ciò dovrebbe accadere e, si spera, persone ben informate saranno coinvolte in tali processi. 🤞 (I data scientist sul campo dovrebbero impegnarsi a monitorare ciò che accade ed essere espliciti se le cose vanno fuori strada.) In particolare, si chiede al Dipartimento del Commercio di creare “standard e migliori pratiche per rilevare contenuti generati dall’intelligenza artificiale e autenticare i contenuti ufficiali”. Ci sono anche alcuni componenti importanti relativi alla sicurezza e alla protezione per quanto riguarda i modelli.

Ho una grande fiducia nel fatto che il nostro governo farà un ottimo lavoro regolando l’intelligenza artificiale senza danneggiare l’innovazione? No, non proprio. Ma sono fiducioso che l’industria lasciata a se stessa non presterà tutta l’attenzione necessaria ai problemi di provenienza e rilevamento dei contenuti: finora non hanno dimostrato che questa sia una priorità.

Sono fiducioso che l’industria lasciata a se stessa non presterà l’attenzione necessaria alle questioni relative alla provenienza e al rilevamento dei contenuti.

Allo stesso tempo, non sono sicuro che il rilevamento dei contenuti prodotti dall’intelligenza artificiale generativa sarà effettivamente possibile in tutti o anche nella maggior parte dei contesti, soprattutto man mano che facciamo progressi. L’ordine esecutivo non dice nulla riguardo a impedire lo sviluppo di modelli se il loro contenuto sconfina in territori non rilevabili, ma questo rischio mi preoccupa. Ciò significherebbe davvero soffocare l’innovazione e dobbiamo riflettere molto attentamente su quali sono o potrebbero essere i compromessi. Tuttavia, il cavallo potrebbe essere già uscito da quella particolare stalla: nel mondo esistono così tanti modelli di intelligenza artificiale generativa open source, che migliorano continuamente in quello che fanno.

Questo argomento è difficile e l’azione giusta da intraprendere non è necessariamente molto chiara. Quanto più sofisticato e complesso è l’output di un modello, maggiori sono le nostre possibilità di rilevare che l’output non è generato dall’uomo, ma siamo in una corsa tecnologica che renderà tale rilevamento sempre più difficile. L’impegno politico sull’argomento può darci qualche barriera, ma non possiamo ancora sapere se sarà davvero d’aiuto o se si rivelerà un disastro.

Questa è una di quelle volte in cui non ho modo di concludere la discussione in modo ordinato. I rischi potenziali e reali di risultati indistinguibili dell’IA generativa sono gravi e dovrebbero essere trattati come tali. Tuttavia, siamo in una situazione scientifico/matematica in cui non possiamo creare una soluzione rapida o semplice e dobbiamo dare peso ai benefici che un’intelligenza artificiale generativa più avanzata potrebbe produrre.

Indipendentemente da ciò, i data scientist dovrebbero prendersi del tempo per leggere l’ordine esecutivo o almeno la scheda informativa, ed essere chiari su ciò che la dichiarazione dice e non dice. Come i lettori abituali sapranno, penso che dobbiamo essere responsabili di diffondere informazioni accurate e accessibili su questi temi ai non addetti ai lavori nella nostra vita, e questa è una buona opportunità, poiché l’argomento è nelle notizie. Assicurati di contribuire positivamente all’alfabetizzazione scientifica dei dati intorno a te.

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *