OpenAI interrompe cinque operazioni di influenza segrete

 | Intelligenza-Artificiale

Negli ultimi tre mesi, OpenAI ha interrotto cinque operazioni di influenza segrete (IO) che tentavano di sfruttare i modelli dell'azienda per attività ingannevoli online. A partire da maggio 2024, queste campagne non hanno mostrato un aumento sostanziale del coinvolgimento o della portata del pubblico grazie ai servizi di OpenAI.

OpenAI afferma che il suo impegno nel progettare modelli di intelligenza artificiale tenendo presente la sicurezza ha spesso ostacolato i tentativi degli autori delle minacce di generare i contenuti desiderati. Inoltre, la società afferma che gli strumenti di intelligenza artificiale hanno migliorato l’efficienza delle indagini di OpenAI.

La segnalazione dettagliata delle minacce da parte delle piattaforme di distribuzione e della comunità open source ha contribuito in modo significativo alla lotta all’IO. OpenAI sta condividendo questi risultati per promuovere la condivisione delle informazioni e delle migliori pratiche tra la più ampia comunità di parti interessate.

Interruzione dell'IO nascosto

Negli ultimi tre mesi, OpenAI ha interrotto diverse operazioni IO utilizzando i suoi modelli per varie attività, come generare brevi commenti, creare falsi profili di social media, condurre ricerche open source, eseguire il debug di semplici codici e tradurre testi.

Le operazioni specifiche interrotte includono:

  • Cattiva grammatica: Un’operazione precedentemente non segnalata dalla Russia contro Ucraina, Moldavia, Stati baltici e Stati Uniti. Questo gruppo ha utilizzato i modelli di OpenAI per eseguire il debug del codice per l'esecuzione di un bot di Telegram e per creare commenti politici in russo e inglese, pubblicati su Telegram.
  • Sosia: Un'altra operazione russa che genera commenti in più lingue su piattaforme come X e 9GAG, traducendo e modificando articoli, generando titoli e convertendo articoli di notizie in post di Facebook.
  • Spamuffamento: Una rete cinese che utilizza i modelli di OpenAI per la ricerca sulle attività pubbliche dei social media, generando testi in diverse lingue e debuggando codice per la gestione di database e siti web.
  • Unione Internazionale dei Media Virtuali (IUVM): Un'operazione iraniana che genera e traduce articoli di lunga durata, titoli e tag di siti Web, pubblicati su un sito Web collegato.
  • Zenone Zero: Una società commerciale in Israele, con operazioni di generazione di articoli e commenti pubblicati su più piattaforme, tra cui Instagram, Facebook, X e siti Web affiliati.

Il contenuto pubblicato da queste operazioni si concentrava su varie questioni, tra cui l'invasione russa dell'Ucraina, il conflitto di Gaza, le elezioni indiane, la politica europea e statunitense e le critiche al governo cinese.

Nonostante questi sforzi, nessuna di queste operazioni ha mostrato un aumento significativo del coinvolgimento del pubblico grazie ai modelli di OpenAI. Utilizzando la Breakout Scale di Brookings, che valuta l'impatto dell'IO nascosto, nessuna delle cinque operazioni ha ottenuto un punteggio superiore a 2, indicando attività su più piattaforme ma nessuna violazione di comunità autentiche.

Tendenze degli attaccanti

Le indagini su queste operazioni di influenza hanno rivelato diverse tendenze:

  • Generazione di contenuti: Gli autori delle minacce hanno utilizzato i servizi di OpenAI per generare grandi volumi di testo con meno errori linguistici di quelli che gli operatori umani potrebbero ottenere da soli.
  • Mescolare vecchio e nuovo: L’intelligenza artificiale è stata utilizzata insieme ai formati tradizionali, come testi scritti manualmente o meme copiati.
  • Fidanzamento falso: Alcune reti hanno generato risposte ai propri post per creare un'apparenza di coinvolgimento, sebbene nessuna sia riuscita ad attirare un coinvolgimento autentico.
  • Guadagni di produttività: Gli autori delle minacce hanno utilizzato l'intelligenza artificiale per migliorare la produttività, riassumendo i post sui social media ed effettuando il debug del codice.

Tendenze difensive

Le indagini di OpenAI hanno beneficiato della condivisione del settore e della ricerca open source. Le misure difensive includono:

  • Progettazione difensiva: I sistemi di sicurezza di OpenAI hanno messo in difficoltà gli autori delle minacce, spesso impedendo loro di generare il contenuto desiderato.
  • Indagine potenziata dall'intelligenza artificiale: Gli strumenti basati sull’intelligenza artificiale hanno migliorato l’efficienza del rilevamento e dell’analisi, riducendo i tempi di indagine da settimane o mesi a giorni.
  • La distribuzione è importante: I contenuti IO, come i contenuti tradizionali, devono essere distribuiti in modo efficace per raggiungere un pubblico. Nonostante i loro sforzi, nessuna delle operazioni interrotte è riuscita a ottenere un impegno sostanziale.
  • Importanza della condivisione del settore: La condivisione degli indicatori di minaccia con colleghi del settore ha aumentato l’impatto delle interruzioni di OpenAI. L'azienda ha beneficiato di anni di analisi open source da parte della più ampia comunità di ricerca.
  • L'elemento umano: Nonostante l’utilizzo dell’intelligenza artificiale, gli autori delle minacce erano inclini a errori umani, come pubblicare messaggi di rifiuto dai modelli OpenAI sui propri social media e siti Web.

OpenAI afferma che continuerà a dedicarsi allo sviluppo di un'intelligenza artificiale sicura e responsabile. Ciò implica la progettazione di modelli tenendo presente la sicurezza e l’intervento proattivo contro usi dannosi.

Pur ammettendo che individuare e interrompere gli abusi multipiattaforma come le operazioni di influenza segrete è impegnativo, OpenAI afferma di essere impegnata a mitigare i pericoli.

(Fotografato da Chris Yang)

Guarda anche: L’UE inaugura un ufficio per attuare la legge sull’intelligenza artificiale e promuovere l’innovazione

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, intelligenza artificiale, ai generativi, operazioni di influenza, openai

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *