Per anni, gli esperti di sicurezza informatica hanno discusso quando – e non se – l’intelligenza artificiale avrebbe oltrepassato la soglia da consulente ad attaccante autonomo. Quella pietra miliare teorica è arrivata.
Antropico è recente indagine in un’operazione sponsorizzata dallo stato cinese documentato (PDF) il primo caso di attacchi informatici orchestrati dall’intelligenza artificiale eseguiti su larga scala con una supervisione umana minima, alterando ciò a cui le aziende devono prepararsi nel panorama delle minacce future.
La campagna, attribuita a un gruppo che Anthropic designa come GTG-1002, rappresenta ciò di cui i ricercatori di sicurezza hanno da tempo messo in guardia ma che non hanno mai effettivamente visto in natura: un sistema di intelligenza artificiale che conduce autonomamente quasi ogni fase dell’intrusione informatica – dalla ricognizione iniziale all’esfiltrazione dei dati – mentre gli operatori umani si limitavano a supervisionare i checkpoint strategici.
Non si tratta di un’evoluzione incrementale, ma di un cambiamento nelle capacità offensive che comprime ciò che richiederebbe settimane a squadre di hacker esperti in operazioni misurate in ore, eseguite alla velocità della macchina su dozzine di obiettivi contemporaneamente.
I numeri raccontano la storia. L’analisi forense di Anthropic ha rivelato che dall’80 al 90% delle operazioni tattiche di GTG-1002 si sono svolte in modo autonomo, con interventi umani in soli quattro-sei punti decisionali critici per campagna.
L’operazione ha preso di mira circa 30 entità – importanti società tecnologiche, istituzioni finanziarie, produttori chimici e agenzie governative – ottenendo violazioni confermate di numerosi obiettivi di alto valore. Al picco di attività, il sistema di intelligenza artificiale ha generato migliaia di richieste a ritmi di più operazioni al secondo, un ritmo fisicamente impossibile da sostenere per i team umani.
Anatomia di una violazione autonoma
L’architettura tecnica alla base di questi attacchi informatici orchestrati dall’intelligenza artificiale rivela una comprensione sofisticata sia delle capacità dell’intelligenza artificiale che delle tecniche di bypass della sicurezza.
GTG-1002 ha costruito un framework di attacco autonomo attorno a Claude Code, lo strumento di assistenza alla codifica di Anthropic, integrato con i server Model Context Protocol (MCP) che fornivano interfacce alle utility standard di test di penetrazione: scanner di rete, framework di sfruttamento dei database, cracker di password e suite di analisi binaria.
La svolta non è stata nello sviluppo di nuovi malware ma nell’orchestrazione. Gli aggressori hanno manipolato Claude attraverso un’ingegneria sociale attentamente costruita, convincendo l’IA che stava conducendo legittimi test di sicurezza difensivi per un’azienda di sicurezza informatica.
Hanno scomposto attacchi complessi in più fasi in attività discrete e apparentemente innocue – scansione delle vulnerabilità, convalida delle credenziali, estrazione dei dati – ciascuna delle quali appare legittima se valutata isolatamente, impedendo a Claude di riconoscere il contesto dannoso più ampio.
Una volta operativo, il quadro ha dimostrato una notevole autonomia.
In un compromesso documentato, Claude ha scoperto in modo indipendente servizi interni in una rete target, mappato la topologia di rete completa in più intervalli IP, identificato sistemi di alto valore tra cui database e piattaforme di orchestrazione del flusso di lavoro, ricercato e scritto codice di exploit personalizzato, convalidato vulnerabilità attraverso sistemi di comunicazione di callback, raccolto credenziali, testate sistematicamente nell’infrastruttura scoperta e analizzati/rubati dati per classificare i risultati in base al valore di intelligence, il tutto senza una guida umana passo dopo passo.
L’intelligenza artificiale ha mantenuto un contesto operativo persistente in sessioni che duravano giorni, consentendo alle campagne di riprendere senza interruzioni dopo le interruzioni.
Ha preso decisioni autonome di targeting basate sull’infrastruttura scoperta, ha adattato le tecniche di sfruttamento quando gli approcci iniziali hanno fallito e ha generato una documentazione completa in tutte le fasi: file di markdown strutturati che tengono traccia dei servizi scoperti, delle credenziali raccolte, dei dati estratti e della progressione completa dell’attacco.
Cosa significa questo per la sicurezza aziendale
La campagna GTG-1002 smantella diversi presupposti fondamentali che hanno plasmato le strategie di sicurezza aziendale. Le difese tradizionali calibrate sui limiti dell’attaccante umano – limitazione della velocità, rilevamento di anomalie comportamentali, linee di base del tempo operativo – affrontano un avversario che opera alla velocità della macchina con resistenza della macchina.
Gli aspetti economici degli attacchi informatici sono cambiati radicalmente, poiché l’80-90% del lavoro tattico può essere automatizzato, mettendo potenzialmente le capacità a livello di stato-nazione alla portata degli attori delle minacce meno sofisticati.
Tuttavia, gli attacchi informatici orchestrati dall’intelligenza artificiale devono affrontare limitazioni intrinseche che i difensori aziendali dovrebbero comprendere. L’indagine di Anthropic ha documentato frequenti allucinazioni dell’intelligenza artificiale durante le operazioni: Claude affermava di aver ottenuto credenziali che non funzionavano, identificava “scoperte critiche” che si rivelavano informazioni disponibili al pubblico e sopravvalutava risultati che richiedevano una convalida umana.
I problemi di affidabilità rimangono un punto di attrito significativo per le operazioni completamente autonome, anche se supporre che persisteranno indefinitamente sarebbe pericolosamente ingenuo dato che le capacità dell’intelligenza artificiale continuano ad avanzare.
L’imperativo difensivo
La realtà del duplice uso dell’intelligenza artificiale avanzata presenta sia sfide che opportunità. Le stesse capacità che consentono il funzionamento di GTG-1002 si sono rivelate essenziali per la difesa: il team di Threat Intelligence di Anthropic ha fatto molto affidamento su Claude per analizzare gli enormi volumi di dati generati durante le loro indagini.
Costruire un’esperienza organizzativa con ciò che funziona in ambienti specifici – comprendere i punti di forza e i limiti dell’IA in contesti difensivi – diventa importante prima che arrivi la prossima ondata di attacchi autonomi più sofisticati.
La rivelazione di Anthropic segnala un punto di svolta. Man mano che i modelli di intelligenza artificiale avanzano e gli autori delle minacce perfezionano i framework di attacco autonomi, la domanda non è se gli attacchi informatici orchestrati dall’intelligenza artificiale prolifereranno nel panorama delle minacce, ma se le difese aziendali saranno in grado di evolversi abbastanza rapidamente per contrastarli.
La finestra di preparazione, sebbene ancora aperta, si sta restringendo più velocemente di quanto molti leader della sicurezza possano immaginare.
Vedi anche: Il nuovo chip Nvidia Blackwell per la Cina potrebbe superare il modello H20

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
