Valutazione delle potenziali minacce di sicurezza informatica di AI avanzata

 | Intelligenza-Artificiale

L'intelligenza artificiale (AI) è stata a lungo una pietra miliare della sicurezza informatica. Dal rilevamento di malware all'analisi del traffico di rete, i modelli di apprendimento automatico predittivo e altre applicazioni di intelligenza artificiale sono state utilizzate per la sicurezza informatica per decenni. Mentre ci avviciniamo all'intelligence generale artificiale (AGI), il potenziale dell'intelligenza artificiale di automatizzare le difese e fissare le vulnerabilità diventa ancora più potente.

Ma per sfruttare tali benefici, dobbiamo anche comprendere e mitigare i rischi di essere sempre più avanzata. Che cosa Per abilitare o migliorare gli attacchi informatici. Il nostro nuovo framework per valutare le capacità cyber offensive emergenti di AI ci aiuta a fare esattamente questo. È la valutazione più completa del suo genere fino ad oggi: copre ogni fase della catena di attacchi informatici, affronta una vasta gamma di tipi di minaccia ed è fondata su dati del mondo reale.

Il nostro framework consente agli esperti di sicurezza informatica di identificare quali difese sono necessarie – e come dare la priorità a loro – prima che gli attori dannosi possano sfruttare l'IA per eseguire sofisticati attacchi informatici.

Costruire un punto di riferimento completo

Il nostro aggiornato Frontier Safety Framework Riconosce che i modelli AI avanzati potrebbero automatizzare e accelerare gli attacchi informatici, riducendo potenzialmente i costi per gli aggressori. Ciò, a sua volta, aumenta i rischi di attacchi che vengono eseguiti su larga scala.

Per stare al passo con la minaccia emergente di attacchi informatici basati sull'intelligenza artificiale, abbiamo adattato i quadri di valutazione della sicurezza informatica provati e testati, come Miter that & ck. Questi framework ci hanno permesso di valutare le minacce nella catena di attacco informatico end-to-end, dalla ricognizione all'azione sugli obiettivi e attraverso una serie di possibili scenari di attacco. Tuttavia, questi quadri stabiliti non sono stati progettati per tenere conto degli aggressori che utilizzano l'IA per violare un sistema. Il nostro approccio colma questo divario identificando in modo proattivo dove l'IA potrebbe rendere gli attacchi più veloci, più economici o più facili, ad esempio, consentendo attacchi informatici completamente automatizzati.

Abbiamo analizzato oltre 12.000 tentativi del mondo reale di utilizzare l'IA negli attacchi informatici in 20 paesi, attingendo a dati da Gruppo di intelligence sulle minacce di Google. Questo ci ha aiutato a identificare modelli comuni su come si svolgono questi attacchi. Da questi, abbiamo curato un elenco di sette categorie di attacchi archetipici, inclusi phishing, malware e attacchi di negazione del servizio-e identificato gli stadi critici di collo di bottiglia lungo la catena di attacchi informatici in cui l'IA potrebbe interrompere significativamente i costi tradizionali di un attacco. Concentrando le valutazioni su questi colli di bottiglia, i difensori possono dare la priorità alle loro risorse di sicurezza in modo più efficace.

Infine, abbiamo creato un benchmark offensivo per le capacità informatiche per valutare in modo completo i punti di forza e di debolezza della sicurezza informatica dei modelli di AI di frontiera. Il nostro punto di riferimento consiste in 50 sfide che coprono l'intera catena di attacco, tra cui aree come la raccolta di intelligence, lo sfruttamento della vulnerabilità e lo sviluppo del malware. Il nostro obiettivo è quello di fornire ai difensori la capacità di sviluppare mitigazioni mirate e simulare gli attacchi basati sull'intelligenza artificiale nell'ambito degli esercizi di squadra rossi.

Approfondimenti dalle valutazioni precoci

Le nostre valutazioni iniziali che utilizzano questo punto di riferimento suggeriscono che, in isolamento, è improbabile che i modelli di intelligenza artificiale attuali consentano capacità di rottura per gli attori delle minacce. Tuttavia, man mano che l'IA di frontiera diventa più avanzata, i tipi di attacchi informatici possibili si evolveranno, che richiedono continui miglioramenti nelle strategie di difesa.

Abbiamo anche scoperto che le valutazioni esistenti della sicurezza informatica AI spesso trascurano i principali aspetti degli attacchi informatici, come l'evasione, in cui gli aggressori nascondono la loro presenza e la loro persistenza, dove mantengono l'accesso a lungo termine a un sistema compromesso. Eppure tali aree sono proprio in cui gli approcci alimentati dall'intelligenza artificiale possono essere particolarmente efficaci. Il nostro quadro fa luce su questo tema discutendo di come l'IA può abbassare le barriere al successo in queste parti di un attacco.

Responsabilizzare la comunità della sicurezza informatica

Man mano che i sistemi di intelligenza artificiale continuano a scalare, la loro capacità di automatizzare e migliorare la sicurezza informatica ha il potenziale per trasformare il modo in cui i difensori prevedono e rispondono alle minacce.

Il nostro framework di valutazione della sicurezza informatica è progettato per supportare tale spostamento offrendo una chiara visione di come l'IA potrebbe anche essere utilizzata in modo improprio e laddove le protezioni informatiche esistenti potrebbero non essere all'altezza. Evidenziando questi rischi emergenti, questo quadro e il benchmark aiuteranno i team di sicurezza informatica a rafforzare le loro difese e rimanere al passo con le minacce in rapida evoluzione.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *