Dettagli antropici: campagna di spionaggio informatico orchestrata dall’intelligenza artificiale

 | Intelligenza-Artificiale

I leader della sicurezza si trovano ad affrontare una nuova classe di minacce autonome Antropico descrive in dettaglio la prima campagna di spionaggio informatico orchestrata dall’intelligenza artificiale.

In un rapporto pubblicato questa settimana, il team di Threat Intelligence dell’azienda ha delineato l’interruzione di un’operazione sofisticata da parte di un gruppo sponsorizzato dallo stato cinese – una valutazione fatta con grande sicurezza – denominata GTG-1002 e rilevata a metà settembre 2025.

L’operazione ha preso di mira circa 30 entità, tra cui grandi aziende tecnologiche, istituzioni finanziarie, aziende di produzione chimica e agenzie governative.

Invece dell’intelligenza artificiale che assiste gli operatori umani, gli aggressori hanno manipolato con successo il modello Claude Code di Anthropic per funzionare come un agente autonomo ed eseguire la stragrande maggioranza delle operazioni tattiche in modo indipendente.

Ciò segna uno sviluppo preoccupante per i CISO, poiché spostano gli attacchi informatici da sforzi diretti dall’uomo a un modello in cui gli agenti di intelligenza artificiale eseguono l’80-90% del lavoro offensivo con gli esseri umani che agiscono solo come supervisori di alto livello. Anthropic ritiene che questo sia il primo caso documentato di un attacco informatico su larga scala eseguito senza un sostanziale intervento umano.

Agenti IA: un nuovo modello operativo per gli attacchi informatici

Il gruppo ha utilizzato un sistema di orchestrazione che incaricava le istanze di Codice Claudio per funzionare come agenti autonomi di penetration test. Questi agenti di intelligenza artificiale sono stati incaricati, come parte della campagna di spionaggio, di eseguire ricognizioni, scoprire vulnerabilità, sviluppare exploit, raccogliere credenziali, spostarsi lateralmente attraverso le reti ed esfiltrare dati. Ciò ha consentito all’intelligenza artificiale di eseguire la ricognizione in una frazione del tempo che avrebbe impiegato un team di hacker umani.

Il coinvolgimento umano è stato limitato al 10-20% dello sforzo totale, concentrandosi principalmente sull’avvio della campagna e sulla fornitura dell’autorizzazione in alcuni punti chiave dell’escalation. Ad esempio, gli operatori umani approverebbero il passaggio dalla ricognizione allo sfruttamento attivo o autorizzerebbero la portata finale dell’esfiltrazione dei dati.

Gli aggressori hanno aggirato le misure di sicurezza integrate nel modello di intelligenza artificiale, addestrate per evitare comportamenti dannosi. Lo hanno fatto eseguendo il jailbreak del modello, ingannandolo suddividendo gli attacchi in compiti apparentemente innocenti e adottando un personaggio da “gioco di ruolo”. Gli operatori hanno detto a Claude che si trattava di un dipendente di una società di sicurezza informatica legittima e che veniva utilizzato per test difensivi. Ciò ha consentito all’operazione di procedere abbastanza a lungo da ottenere l’accesso a una manciata di obiettivi convalidati.

La sofisticazione tecnica dell’attacco non sta nel nuovo malware, ma nell’orchestrazione. Il rapporto rileva che il framework si basava “in massima parte su strumenti di penetration test open source”. Gli aggressori hanno utilizzato il Model Context Protocol (MCP) server come interfaccia tra l’intelligenza artificiale e questi strumenti di base, consentendo all’intelligenza artificiale di eseguire comandi, analizzare risultati e mantenere lo stato operativo su più obiettivi e sessioni. L’intelligenza artificiale è stata persino incaricata di ricercare e scrivere il proprio codice di exploit per la campagna di spionaggio.

Le allucinazioni dell’intelligenza artificiale diventano una buona cosa

Sebbene la campagna abbia raggiunto con successo obiettivi di alto valore, l’indagine di Anthropic ha scoperto una limitazione degna di nota: l’intelligenza artificiale aveva allucinazioni durante le operazioni offensive.

Il rapporto afferma che Claude “spesso sopravvalutava i risultati e occasionalmente fabbricava dati”. Ciò si è manifestato quando l’IA affermava di aver ottenuto credenziali che non funzionavano o identificava scoperte che “si sono rivelate informazioni disponibili al pubblico”.

Questa tendenza ha richiesto agli operatori umani di convalidare attentamente tutti i risultati, mettendo a dura prova l’efficacia operativa degli aggressori. Secondo Anthropic, questo “resta un ostacolo agli attacchi informatici completamente autonomi”. Per i leader della sicurezza, ciò evidenzia una potenziale debolezza negli attacchi guidati dall’intelligenza artificiale: possono generare un volume elevato di rumore e falsi positivi che possono essere identificati con un monitoraggio efficace.

Una corsa agli armamenti difensiva dell’IA contro le nuove minacce di spionaggio informatico

La principale implicazione per i leader aziendali e tecnologici è che le barriere all’esecuzione di attacchi informatici sofisticati sono diminuite notevolmente. I gruppi con meno risorse potrebbero ora essere in grado di eseguire campagne che in precedenza richiedevano interi team di hacker esperti.

Questo attacco dimostra una capacità che va oltre il “vibe hacking”, in cui gli esseri umani mantengono saldamente il controllo delle operazioni. La campagna GTG-1002 dimostra che l’intelligenza artificiale può essere utilizzata per scoprire e sfruttare autonomamente le vulnerabilità nelle operazioni live.

Anthropic, che ha vietato gli account e informato le autorità nel corso di un’indagine durata dieci giorni, sostiene che questo sviluppo dimostra l’urgente necessità di una difesa basata sull’intelligenza artificiale. L’azienda afferma che “le stesse capacità che consentono a Claude di essere utilizzato in questi attacchi lo rendono essenziale anche per la difesa informatica”. Il team di Threat Intelligence dell’azienda “ha utilizzato ampiamente Claude per analizzare” le enormi quantità di dati generati” durante questa indagine.

I team di sicurezza dovrebbero operare partendo dal presupposto che si sia verificato un cambiamento importante nella sicurezza informatica. Il rapporto esorta i difensori a “sperimentare l’applicazione dell’intelligenza artificiale per la difesa in aree come l’automazione dei SOC, il rilevamento delle minacce, la valutazione delle vulnerabilità e la risposta agli incidenti”.

La competizione tra attacchi guidati dall’intelligenza artificiale e difesa basata sull’intelligenza artificiale è iniziata e l’adattamento proattivo per contrastare le nuove minacce di spionaggio è l’unica strada percorribile.

Vedi anche: Wiz: Nella corsa globale all’intelligenza artificiale emergono delle carenze in termini di sicurezza

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *