Mappatura dell’uso improprio dell’intelligenza artificiale generativa

 | Intelligenza-Artificiale

Forme emergenti di uso improprio dell’intelligenza artificiale generativa, che non sono apertamente dannose, sollevano ancora preoccupazioni etiche. Ad esempio, nuove forme di sensibilizzazione politica stanno confondendo i confini tra autenticità e inganno funzionari governativi improvvisamente parlano una varietà di lingue favorevoli agli elettori senza una divulgazione trasparente del fatto che stanno utilizzando l’intelligenza artificiale generativa e attivisti che utilizzano le voci generate dall’intelligenza artificiale delle vittime decedute per invocare la riforma delle armi.

Sebbene lo studio fornisca nuove informazioni sulle forme emergenti di abuso, vale la pena notare che questo set di dati è un campione limitato di resoconti dei media. I resoconti dei media possono dare priorità a incidenti sensazionali, che a loro volta possono distorcere il set di dati verso particolari tipi di uso improprio. Rilevare o segnalare casi di abuso può anche essere più impegnativo per le persone coinvolte perché i sistemi di intelligenza artificiale generativa sono così nuovi. Il set di dati inoltre non effettua un confronto diretto tra l’uso improprio dei sistemi di intelligenza artificiale generativa e le tradizionali tattiche di creazione e manipolazione di contenuti, come l’editing di immagini o la creazione di “content farm” per creare grandi quantità di testo, video, gif, immagini e altro ancora. Finora, prove aneddotiche suggeriscono che le tradizionali tattiche di manipolazione dei contenuti rimangono più diffuse.

Anticipare potenziali abusi

Nostro carta evidenzia le opportunità per progettare iniziative che proteggano il pubblico, come l’avanzamento di ampie campagne di alfabetizzazione generativa sull’intelligenza artificiale, lo sviluppo di interventi migliori per proteggere il pubblico dai cattivi attori, o avvisare le persone e attrezzarle individuare e confutare le strategie manipolative utilizzate nell’uso improprio dell’IA generativa.

Questa ricerca aiuta i nostri team a salvaguardare meglio i nostri prodotti informando il nostro sviluppo di iniziative di sicurezza. Su YouTube, noi ora richiedono ai creatori di condividere quando il loro lavoro viene modificato in modo significativo o generato sinteticamente e sembra realistico. Allo stesso modo, abbiamo aggiornato le nostre norme sulla pubblicità elettorale per richiedere agli inserzionisti di rendere noto quando i loro annunci elettorali includono materiale che è stato modificato o generato digitalmente.

Mentre continuiamo ad ampliare la nostra comprensione degli usi dannosi dell’intelligenza artificiale generativa e ad apportare ulteriori progressi tecnici, sappiamo che è più importante che mai garantire che il nostro lavoro non avvenga in silo. Recentemente ci siamo uniti a Contenuto per provenienza e autenticità della coalizione (C2PA) come membro del comitato direttivo per contribuire a sviluppare lo standard tecnico e promuovere l’adozione delle credenziali di contenuto, che sono metadati a prova di manomissione che mostrano come il contenuto è stato creato e modificato nel tempo.

Parallelamente, stiamo anche conducendo ricerche che promuovono gli sforzi esistenti di red teaming, tra cui migliorare le migliori pratiche per testare la sicurezza dei modelli linguistici di grandi dimensioni (LLM)e lo sviluppo di strumenti pionieristici per rendere più facile l’identificazione dei contenuti generati dall’intelligenza artificiale, come ad esempio SynthIDche viene integrato in una gamma crescente di prodotti.

Negli ultimi anni, Jigsaw ha condotto ricerche con i creatori di disinformazione per comprendere gli strumenti e le tattiche che utilizzano, sviluppato video prebunking per avvisare le persone dei tentativi di manipolarle, e dimostrato che le campagne di prebunking possono migliorare la resilienza alla disinformazione su larga scala. Questo lavoro fa parte del più ampio portafoglio di interventi informativi di Jigsaw per aiutare le persone a proteggersi online.

Affrontando in modo proattivo potenziali abusi, possiamo promuovere un uso responsabile ed etico dell’intelligenza artificiale generativa, riducendone al minimo i rischi. Ci auguriamo che questi approfondimenti sulle tattiche e strategie di abuso più comuni aiutino ricercatori, politici, fiduciari del settore e team di sicurezza a costruire tecnologie più sicure e responsabili e a sviluppare misure migliori per combattere l’abuso.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *