
Google Cloud Crede che la risposta ai team di sicurezza sovraccarichi non sia solo più strumenti, ma un alleato basato sull’intelligenza artificiale.
Al suo vertice sulla sicurezza 2025, Google ha eliminato la sua visione per un futuro in cui l’IA libera esperti di sicurezza umana dal noioso lavoro per concentrarsi su ciò che conta di più.
L’idea centrale è quella di usare l’IA per difendere la tua organizzazione al contempo assicurando le proprie iniziative di intelligenza artificiale dagli attacchi. Man mano che le aziende si affidano sempre più agli agenti di intelligenza artificiale, questi agenti stessi diventano una nuova frontiera per problemi di sicurezza.
Garantire l’ecosistema AI
Prima che l’IA possa diventare un difensore di fiducia, il suo ambiente deve essere sicuro. A tal fine, Google Cloud sta migliorando la sua soluzione di protezione dell’IA all’interno del Centro di comando di sicurezza.
Nuove funzionalità, che arrivano presto in anteprima, scopriranno automaticamente tutti gli agenti e i server AI nel tuo ambiente. Ciò darà ai team di sicurezza una visione chiara dell’intero ecosistema agente di intelligenza artificiale, aiutandoli a individuare vulnerabilità, errate configurazioni e interazioni rischiose.
Anche la protezione in tempo reale sta ottenendo una spinta. La protezione in linea di Model Armour viene estesa a istruzioni e risposte all’interno dello spazio degli agenti, contribuendo a bloccare minacce come iniezione rapida e perdite di dati man mano che si verificano.
Per garantire che gli agenti di intelligenza artificiale giochino sempre secondo le regole, nuovi controlli di postura li aiuteranno ad attenersi alle politiche di sicurezza dell’azienda. E con nuovi rilevamenti di minacce alimentate dall’intelligence di Mandiant e Google Cloud, i team di sicurezza possono ora meglio individuare e rispondere a comportamenti insoliti o sospetti dalle loro risorse di intelligenza artificiale.
Rise of the Agentic Soc
Forse l’annuncio più lungimirante è la visione di Google per un “Centro di operazioni di sicurezza agente (SOC)”. Immagina un sistema in cui agenti AI collaborare per gestire le minacceAutomatizzare le indagini di allerta e persino aiutare gli ingegneri a creare nuovi rilevamenti per colmare le lacune di sicurezza.
Il primo passo in questa direzione è il nuovo agente di indagine di allerta, che ora è in anteprima. Questo strumento si comporta come un analista junior, esaminando autonomamente gli eventi di sicurezza, analizzando l’attività della riga di comando e mappando gli alberi di processo in base ai metodi comprovati degli esperti di prima linea di Mandint. L’agente fornisce il suo verdetto sugli avvisi e suggerisce i prossimi passi per gli analisti umani, promettendo di ridurre il lavoro manuale e accelerare i tempi di risposta.
Sicurezza AI basata sulla Fondazione unificata di Google Cloud
In Google Security Operations, il nuovo SecOPS Labs offre agli utenti l’accesso anticipato a potenti capacità, molte delle quali sono alimentate da Gemelli AI. Anche i nuovi dashboard che riuniscono i dati di orchestrazione di sicurezza, automazione e risposta (SOAR) sono ora generalmente disponibili, dando un quadro più chiaro della posizione di sicurezza di un’organizzazione.
Anche la Fondazione della piattaforma, il cloud di fiducia, sta ricevendo aggiornamenti:
- Conformità e rischio: Un nuovo responsabile della conformità semplifica il complesso mondo degli audit e dell’applicazione delle politiche, mentre i nuovi rapporti sui rischi utilizzano virtuali squadra rossa Tecnologia per trovare lacune di sicurezza che gli aggressori potrebbero sfruttare.
- Controllo degli accessi più intelligente: Il noioso compito di concedere le autorizzazioni ottiene un assist di intelligenza artificiale con il nuovo raccoglitore di ruolo IAM, ora in anteprima. Puoi semplicemente descrivere ciò che una persona o un servizio deve fare e Gemini consiglierà il ruolo più sicuro e meno permmissivo. Per proteggersi dalle acquisizioni di account, ora la riabilitazione sarà attivata per azioni altamente sensibili.
- Dati ampliati e sicurezza della rete: La protezione sensibile dei dati è stata ampliata per coprire strumenti di intelligenza artificiale come Vertex AI e Cloud NGFW ora aiuta ad applicare zero principi di fiducia ai carichi di lavoro di calcolo ad alte prestazioni, tra cui AI.
Incorporando l’intelligenza artificiale nel nucleo delle sue offerte, Google Cloud sta lavorando per creare una base in cui la sicurezza consente obiettivi aziendali e aiuta i difensori ad affrontare le sfide di una nuova era.
(Foto di Ameer Basheer)
Vedi anche: Perché i capi di sicurezza richiedono una regolamentazione urgente di AI come DeepSeek

Vuoi saperne di più sull’intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L’evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com