
Nell’elegante ufficio di Singapore di Google a Block 80, Livello 3, Mark Johnston si trovava davanti a una stanza di giornalisti tecnologici alle 13:30 con un’ammissione sorprendente: dopo cinque decenni di evoluzione della sicurezza informatica, i difensori stanno ancora perdendo la guerra. “Nel 69% degli incidenti in Giappone e in Asia Pacifico, le organizzazioni sono state informate delle loro violazioni da entità esterne”, ha nemmeno rivelato il direttore dell’Ufficio di Google Cloud per l’Asia Pacifico, la sua presentazione di presentazione che mostra una statistica dannosa: la maggior parte delle aziende non può nemmeno rilevare quando sono state violate.
Ciò che si è svolto durante la tavola rotonda della “sicurezza informatica nell’era dell’IA” è stata una valutazione onesta di come le tecnologie di AI di Google Cloud stanno tentando di invertire decenni di fallimenti difensivi, anche se gli stessi strumenti di intelligenza artificiale danno potere agli aggressori con capacità senza precedenti.

Il contesto storico: 50 anni di fallimento difensivo
La crisi non è nuova. Johnston ha rintracciato il problema all’osservazione del pioniere della sicurezza informatica James B. Anderson del 1972 secondo cui “i sistemi che usiamo davvero non proteggono se stessi” – una sfida che è persistita nonostante decenni di progresso tecnologico. “Ciò che James B Anderson ha detto nel 1972 si applica ancora oggi”, ha detto Johnston, evidenziando come i problemi di sicurezza fondamentali rimangono irrisolti anche quando la tecnologia si evolve.
La persistenza delle vulnerabilità di base aggrava questa sfida. I dati di intelligence delle minacce di Google Cloud rivelano che “oltre il 76% delle violazioni inizia con le basi”: errori di configurazione e compromessi delle credenziali che hanno afflitto le organizzazioni per decenni. Johnston ha citato un esempio recente: “Il mese scorso, un prodotto molto comune che la maggior parte delle organizzazioni ha usato ad un certo punto nel tempo, Microsoft SharePoint, ha anche quella che chiamiamo vulnerabilità a zero giorni … e durante quel periodo, è stato attaccato continuamente e abuso.”
The AI Arms Race: Defenders vs. Attacchiasori

Kevin Curran, membro senior dell’IEEE e professore di sicurezza informatica presso l’Università di Ulster, descrive il panorama attuale come “una corsa agli armamenti ad alto contenuto di poste” in cui sia i team di sicurezza informatica che gli attori delle minacce impiegano strumenti di intelligenza artificiale per superarsi a vicenda. “Per i difensori, l’IA è una risorsa preziosa”, spiega Curran in una nota dei media. “Le aziende hanno implementato l’intelligenza artificiale generativa e altri strumenti di automazione per analizzare grandi quantità di dati in tempo reale e identificare anomalie.”
Tuttavia, le stesse tecnologie a beneficio degli aggressori. “Per gli attori delle minacce, l’IA può semplificare gli attacchi di phishing, automatizzare la creazione di malware e aiutare a scansionare le reti per le vulnerabilità”, avverte Curran. La natura a doppio uso dell’IA crea ciò che Johnston chiama “il dilemma del difensore”.
Le iniziative di AI di Google Cloud mirano a inclinare queste scale a favore dei difensori. Johnston ha sostenuto che “l’IA offre la migliore opportunità di ribaltare il dilemma del difensore e inclinare le scale del cyberspazio per dare ai difisioni un vantaggio decisivo rispetto agli aggressori”. L’approccio dell’azienda è incentrato su ciò che chiamano “innumerevoli casi d’uso per l’intelligenza artificiale generativa in difesa”, che copre la scoperta di vulnerabilità, l’intelligence delle minacce, la generazione sicura del codice e la risposta agli incidenti.
Project Zero’s Big Sleep: Ai Trovare ciò che gli umani mancano
Uno degli esempi più avvincenti di Google di difesa basata sull’intelligenza artificiale è l’iniziativa “Big Sleep” di Project Zero, che utilizza modelli di grandi dimensioni per identificare le vulnerabilità nel codice del mondo reale. Johnston ha condiviso metriche impressionanti: “Big Sleep ha trovato una vulnerabilità in una biblioteca open source usando strumenti di intelligenza artificiale generativi – la prima volta che crediamo che una vulnerabilità sia stata trovata da un servizio di intelligenza artificiale”.
L’evoluzione del programma dimostra le crescenti capacità dell’IA. “Il mese scorso, abbiamo annunciato che abbiamo trovato oltre 20 vulnerabilità in pacchetti diversi”, ha osservato Johnston. “Ma oggi, quando ho guardato la grande dashboard del sonno, ho trovato 47 vulnerabilità in agosto che sono state trovate da questa soluzione.”
La progressione dall’analisi umana manuale alla scoperta assistita dall’IA rappresenta ciò che Johnston descrive come uno spostamento “dalle operazioni di sicurezza manuali a semi-autonome”, in cui “Gemini guida la maggior parte dei compiti nel ciclo di vita della sicurezza costantemente bene, delegando compiti che non può automatizzare con una fiducia o una precisione sufficientemente elevata”.
Il paradosso dell’automazione: promessa e pericolo
La tabella di marcia di Google Cloud prevede la progressione attraverso quattro fasi: operazioni di sicurezza manuali, assistite, semi-autonome e autonome. Nella fase semi-autonoma, i sistemi di intelligenza artificiale gestivano compiti di routine mentre intensificavano decisioni complesse agli operatori umani. La fase autonoma finale vedrebbe l’IA “guidare il ciclo di vita della sicurezza a risultati positivi per conto degli utenti”.

Tuttavia, questa automazione introduce nuove vulnerabilità. Alla domanda sui rischi di eccessiva dipendenza dai sistemi di intelligenza artificiale, Johnston ha riconosciuto la sfida: “Esiste il potenziale che questo servizio possa essere attaccato e manipolato. Al momento, quando si vedono strumenti in cui questi agenti vengono convocati, non esiste un framework davvero buono per autorizzare che questo è lo strumento reale che non è stato manmontato.”
Curran fa eco a questa preoccupazione: “Il rischio per le aziende è che i loro team di sicurezza diventeranno eccessivamente relativi all’intelligenza artificiale, potenzialmente mettendo in discussione il giudizio umano e lasciando i sistemi vulnerabili agli attacchi. È ancora necessario un” copilota “umano e che i ruoli devono essere chiaramente definiti”.
Implementazione del mondo reale: controllo della natura imprevedibile di AI
L’approccio di Google Cloud include garanzie pratiche per affrontare una delle caratteristiche più problematiche dell’IA: la sua tendenza a generare risposte irrilevanti o inappropriate. Johnston ha illustrato questa sfida con un esempio concreto di disallineamenti contestuali che potrebbero creare rischi aziendali.
“Se hai un negozio al dettaglio, non dovresti invece avere consulenza medica”, ha spiegato Johnston, descrivendo come i sistemi di intelligenza artificiale possono spostarsi inaspettatamente in domini non correlati. “A volte questi strumenti possono farlo.” L’imprevedibilità rappresenta una responsabilità significativa per le aziende che distribuiscono sistemi di intelligenza artificiale rivolti ai clienti, in cui le risposte fuori tema potrebbero confondere i clienti, danneggiare la reputazione del marchio o persino creare un’esposizione legale.
La tecnologia di armatura modello di Google affronta questo problema funzionando come un livello di filtro intelligente. “Avere filtri e utilizzare le nostre capacità per mettere controlli sanitari su tali risposte consente a un’organizzazione di ottenere fiducia”, ha osservato Johnston. Il sistema scherma gli output di intelligenza artificiale per informazioni identificabili personalmente, filtra il contenuto inappropriato al contesto aziendale e blocca le risposte che potrebbero essere “off-brand” per il caso d’uso previsto dall’organizzazione.
La società affronta anche la crescente preoccupazione per lo spiegamento dell’IA ombra. Le organizzazioni stanno scoprendo centinaia di strumenti di intelligenza artificiale non autorizzati nelle loro reti, creando enormi lacune di sicurezza. Le tecnologie sensibili alla protezione dei dati di Google tentano di affrontare questo problema scansionando in più fornitori di cloud e sistemi locali.
The Scale Challenge: vincoli di bilancio rispetto a una crescente minaccia
Johnston ha identificato i vincoli di bilancio come la sfida principale che deve affrontare i CISO del Pacifico Asia, che si verificano proprio quando le organizzazioni affrontano minacce informatiche crescenti. Il paradosso è netto: all’aumentare dei volumi di attacco, le organizzazioni non hanno le risorse per rispondere adeguatamente.
“Guardiamo le statistiche e diciamo oggettivamente, stiamo assistendo a più rumore – potrebbe non essere super sofisticato, ma più rumore è più sovraccarico e questo costa di più da affrontare”, ha osservato Johnston. L’aumento della frequenza di attacco, anche quando i singoli attacchi non sono necessariamente più avanzati, crea un drenaggio delle risorse che molte organizzazioni non possono sostenere.
La pressione finanziaria intensifica un panorama di sicurezza già complesso. “Stanno cercando partner che possano aiutare ad accelerare che senza dover assumere 10 staff in più o ottenere budget maggiori”, ha spiegato Johnston, descrivendo come i leader della sicurezza affrontano la crescente pressione per fare di più con le risorse esistenti mentre le minacce si moltiplicano.
Rimangono domande critiche
Nonostante le promettenti funzionalità di Google Cloud AI, persistono diverse domande importanti. Se sfidato sul fatto che i difensori stiano effettivamente vincendo questa corsa agli armamenti, Johnston ha riconosciuto: “Non abbiamo visto nuovi attacchi usando l’intelligenza artificiale fino ad oggi”, ma ha notato che gli aggressori stanno usando l’intelligenza artificiale per ridimensionare i metodi di attacco esistenti e creare “una vasta gamma di opportunità in alcuni aspetti dell’attacco”.
Le affermazioni di efficacia richiedono anche un controllo. Mentre Johnston ha citato un miglioramento del 50% nel rapporto degli incidenti, ha ammesso che l’accuratezza rimane una sfida: “Ci sono inesattezze, certo. Ma anche gli umani commettono errori”. Il riconoscimento evidenzia le limitazioni in corso delle attuali implementazioni di sicurezza dell’IA.
In attesa: preparativi post-quantum
Oltre alle attuali implementazioni di intelligenza artificiale, Google Cloud si sta già preparando per il prossimo turno di paradigma. Johnston ha rivelato che la società ha “già distribuito la crittografia post-quantum tra i nostri data center per impostazione predefinita su vasta scala”, posizionando per le future minacce di calcolo quantistico che potrebbero rendere obsoleta la crittografia corrente.
Il verdetto: cauto ottimismo richiesto
L’integrazione dell’intelligenza artificiale nella sicurezza informatica rappresenta sia opportunità senza precedenti sia un rischio significativo. Mentre le tecnologie AI di Google Cloud dimostrano capacità autentiche nel rilevamento della vulnerabilità, nell’analisi delle minacce e nella risposta automatizzata, le stesse tecnologie consentono agli aggressori con capacità migliorate per la ricognizione, l’ingegneria sociale ed evasione.
La valutazione di Curran fornisce una prospettiva equilibrata: “Data la rapidità con cui la tecnologia si è evoluta, le organizzazioni dovranno adottare una politica di sicurezza informatica più completa e proattiva se vogliono stare al passo con gli aggressori. Dopo tutto, gli attacchi informatici sono una questione di” quando “non” se “e AI non solo accelereranno il numero di opportunità disponibili per gli attori delle minacce.”
Il successo della sicurezza informatica basata sull’intelligenza artificiale alla fine non dipende dalla tecnologia stessa, ma da come le organizzazioni pensierosi implementano questi strumenti mantenendo la supervisione umana e affrontando l’igiene della sicurezza fondamentale. Come ha concluso Johnston, “dovremmo adottarli in approcci a basso rischio”, sottolineando la necessità di implementazione misurata piuttosto che l’automazione all’ingrosso.
La rivoluzione dell’IA nella sicurezza informatica è in corso, ma la vittoria apparterrà a coloro che possono bilanciare l’innovazione con una prudente gestione del rischio, non quelli che semplicemente implementano gli algoritmi più avanzati.
Vedi anche: Google Cloud svela Ai Ally per i team di sicurezza
Vuoi saperne di più sull’intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L’evento completo fa parte di Techex ed è collocato con altri eventi tecnologici leader, clicca Qui Per ulteriori informazioni.
AI News è alimentato da TechForge Media. Esplora altri prossimi eventi tecnologici aziendali e webinar Qui.
Fonte: www.artificialintelligence-news.com