Come proteggere la tua azienda dai deepfake generati dall'intelligenza artificiale

 | Intelligenza-Artificiale

Recentemente, i criminali informatici hanno utilizzato video “deepfake” dei dirigenti di una multinazionale per convincere i dipendenti dell'azienda con sede a Hong Kong a trasferire 25,6 milioni di dollari. Sulla base di una videoconferenza caratterizzata da numerosi deepfake, i dipendenti credevano che il loro direttore finanziario con sede nel Regno Unito avesse richiesto il trasferimento dei fondi. Secondo quanto riferito, la polizia ha arrestato sei persone in relazione alla truffa. Questo uso della tecnologia AI è pericoloso e manipolativo. Senza linee guida e strutture adeguate, sempre più organizzazioni rischiano di cadere vittime di truffe basate sull’intelligenza artificiale come i deepfake.

Deepfakes 101 e la loro crescente minaccia

I deepfake sono forme di media alterati digitalmente, tra cui foto, video e clip audio, che sembrano rappresentare una persona reale. Vengono creati addestrando un sistema di intelligenza artificiale su clip reali con una persona e quindi utilizzando quel sistema di intelligenza artificiale per generare nuovi media realistici (ma non autentici). L’uso del deepfake sta diventando sempre più comune. Il caso di Hong Kong è stato l’ultimo di una serie di episodi di deepfake di alto profilo avvenuti nelle ultime settimane. Immagini false ed esplicite di Taylor Swift sono circolate sui social media, il partito politico di un candidato alle elezioni imprigionato in Pakistan ha utilizzato un video deepfake di lui per tenere un discorso e un falso “clone vocale” del presidente Biden ha chiamato gli elettori delle primarie per dire loro di non farlo votazione.

Anche i casi meno importanti di utilizzo del deepfake da parte dei criminali informatici sono aumentati sia in termini di portata che di sofisticatezza. Nel settore bancario, i criminali informatici stanno ora tentando di superare l’autenticazione vocale utilizzando cloni vocali di persone per impersonare gli utenti e ottenere l’accesso ai loro fondi. Le banche hanno risposto migliorando le proprie capacità di identificare l’uso dei deepfake e aumentando i requisiti di autenticazione.

I criminali informatici hanno preso di mira anche individui con attacchi di “spear phishing” che utilizzano deepfake. Un approccio comune consiste nell'ingannare i familiari e gli amici di una persona utilizzando un clone vocale per impersonare qualcuno in una telefonata e chiedere il trasferimento dei fondi su un conto di terze parti. L'anno scorso, un sondaggio condotto da McAfee ha rilevato che il 70% delle persone intervistate non era sicura di poter distinguere tra le persone e i loro cloni vocali e che quasi la metà delle persone intervistate avrebbe risposto alle richieste di fondi se il familiare o l'amico che ha effettuato la chiamata avesse affermato essere stato derubato o aver avuto un incidente stradale.

I criminali informatici hanno anche chiamato persone che si fingevano autorità fiscali, banche, operatori sanitari e assicuratori nel tentativo di ottenere dettagli finanziari e personali.

A febbraio, la Federal Communications Commission ha stabilito che le telefonate che utilizzano voci umane generate dall’intelligenza artificiale sono illegali se non effettuate previo consenso esplicito della parte chiamata. La Federal Trade Commission ha inoltre messo a punto una norma che vieta la rappresentazione tramite intelligenza artificiale di organizzazioni governative e imprese e ha proposto una regola simile che vieta la rappresentazione tramite intelligenza artificiale di individui. Ciò si aggiunge a un elenco crescente di misure legali e normative messe in atto in tutto il mondo per combattere i deepfake.

Proteggiti dai deepfake

Per proteggere i dipendenti e la reputazione del marchio dai deepfake, i leader dovrebbero attenersi ai seguenti passaggi:

  1. Educare i dipendenti su base continuativa, sia sulle truffe legate all’intelligenza artificiale che, più in generale, sulle nuove funzionalità dell’intelligenza artificiale e sui relativi rischi.
  2. Aggiorna la guida al phishing per includere minacce deepfake. Molte aziende hanno già informato i dipendenti sulle e-mail di phishing e hanno invitato alla cautela quando ricevono richieste sospette tramite e-mail non richieste. Tali linee guida sul phishing dovrebbero includere le truffe deepfake basate sull’intelligenza artificiale e notare che potrebbero utilizzare non solo testo ed e-mail, ma anche video, immagini e audio.
  3. Aumentare o calibrare opportunamente l'autenticazione dei dipendenti, dei partner commerciali e dei clienti. Ad esempio, utilizzando più di una modalità di autenticazione a seconda della sensibilità e del rischio di una decisione o transazione.
  4. Considera gli impatti dei deepfake sugli asset aziendalicome loghi, personaggi pubblicitari e campagne pubblicitarie. Tali risorse aziendali possono essere facilmente replicate utilizzando i deepfake e diffuse rapidamente tramite i social media e altri canali Internet. Considera come la tua azienda mitigherà questi rischi e istruirà le parti interessate.
  5. Aspettatevi deepfake più e miglioridato il ritmo di miglioramento dell’intelligenza artificiale generativa, il numero di importanti processi elettorali in corso nel 2024 e la facilità con cui i deepfake possono propagarsi tra le persone e oltre i confini.

Sebbene i deepfake siano un problema di sicurezza informatica, le aziende dovrebbero considerarli anche come fenomeni complessi ed emergenti con ripercussioni più ampie. Un approccio proattivo e ponderato per affrontare i deepfake può aiutare a educare le parti interessate e garantire che le misure per combatterli siano responsabili, proporzionate e appropriate.

(Fotografato da Markus Spike)

Guarda anche: Regno Unito e Stati Uniti firmano un accordo per sviluppare test di sicurezza sull’intelligenza artificiale

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, intelligenza artificiale, deepfake, impresa, fregature

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *