Costruire un’AGI sicura: valutazione delle capacità emergenti di sicurezza informatica dell’intelligenza artificiale avanzata

 | Intelligenza-Artificiale

L’intelligenza artificiale (AI) è da tempo una pietra miliare della sicurezza informatica. Dal rilevamento del malware all’analisi del traffico di rete, i modelli predittivi di machine learning e altre applicazioni di intelligenza artificiale vengono utilizzati da decenni nella sicurezza informatica. Man mano che ci avviciniamo all’intelligenza generale artificiale (AGI), il potenziale dell’IA di automatizzare le difese e correggere le vulnerabilità diventa ancora più potente.

Ma per sfruttare tali vantaggi, dobbiamo anche comprendere e mitigare i rischi derivanti da un’intelligenza artificiale sempre più avanzata cose per abilitare o potenziare gli attacchi informatici. Il nostro nuovo quadro per valutare le capacità informatiche offensive emergenti dell’intelligenza artificiale ci aiuta a fare esattamente questo. Si tratta ad oggi della valutazione più completa nel suo genere: copre ogni fase della catena di attacchi informatici, affronta un’ampia gamma di tipi di minacce e si basa su dati del mondo reale.

Il nostro framework consente agli esperti di sicurezza informatica di identificare quali difese sono necessarie – e come dare loro la priorità – prima che gli autori malintenzionati possano sfruttare l’intelligenza artificiale per sferrare attacchi informatici sofisticati.

Costruire un punto di riferimento completo

Il nostro aggiornato Quadro di sicurezza delle frontiere riconosce che modelli avanzati di intelligenza artificiale potrebbero automatizzare e accelerare gli attacchi informatici, riducendo potenzialmente i costi per gli aggressori. Ciò, a sua volta, aumenta il rischio che gli attacchi vengano effettuati su scala più ampia.

Per stare al passo con la minaccia emergente degli attacchi informatici basati sull’intelligenza artificiale, abbiamo adattato quadri di valutazione della sicurezza informatica collaudati, come ATT&CK MITRA. Questi framework ci hanno consentito di valutare le minacce lungo tutta la catena di attacco informatico end-to-end, dalla ricognizione all’azione sugli obiettivi, e attraverso una gamma di possibili scenari di attacco. Tuttavia, questi framework consolidati non sono stati progettati per tenere conto degli aggressori che utilizzano l’intelligenza artificiale per violare un sistema. Il nostro approccio colma questa lacuna identificando in modo proattivo i punti in cui l’intelligenza artificiale potrebbe rendere gli attacchi più rapidi, economici o facili, ad esempio consentendo attacchi informatici completamente automatizzati.

Abbiamo analizzato oltre 12.000 tentativi nel mondo reale di utilizzare l’intelligenza artificiale negli attacchi informatici in 20 paesi, attingendo ai dati di Gruppo di intelligence sulle minacce di Google. Ciò ci ha aiutato a identificare modelli comuni nel modo in cui si svolgono questi attacchi. Da questi, abbiamo stilato un elenco di sette categorie di attacchi archetipici, tra cui attacchi di phishing, malware e attacchi Denial of Service, e identificato le fasi critiche dei colli di bottiglia lungo la catena degli attacchi informatici in cui l’intelligenza artificiale potrebbe interrompere in modo significativo i costi tradizionali di un attacco. Concentrando le valutazioni su questi colli di bottiglia, i difensori possono dare priorità alle proprie risorse di sicurezza in modo più efficace.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *