Dieci anni fa sarebbe stato difficile credere che l’intelligenza artificiale potesse fare quello che fa oggi. Tuttavia, è proprio questo potere che introduce una nuova superficie di attacco che i sistemi di sicurezza tradizionali non sono stati concepiti per affrontare. Man mano che questa tecnologia viene integrata nelle operazioni critiche, le aziende necessitano di una strategia di difesa a più livelli che includa protezione dei dati, controllo degli accessi e monitoraggio costante per mantenere questi sistemi sicuri. Cinque pratiche fondamentali affrontano questi rischi.
1. Applicare un accesso rigoroso e una governance dei dati rigorosa
I sistemi di intelligenza artificiale dipendono dai dati che ricevono e dalle persone che vi accedono, quindi il controllo degli accessi basato sui ruoli è uno dei modi migliori per limitare l’esposizione. Assegnando le autorizzazioni in base alla funzione lavorativa, i team possono garantire che solo le persone giuste possano interagire e addestrare modelli di intelligenza artificiale sensibili.
La crittografia rafforza la protezione. I modelli di intelligenza artificiale e i dati utilizzati per addestrarli devono essere crittografati quando archiviati e durante lo spostamento tra i sistemi. Ciò è particolarmente importante quando i dati includono codice proprietario o informazioni personali. Lasciare un modello non crittografato su un server condiviso è un invito aperto per gli aggressori e una solida governance dei dati è l’ultima linea di difesa che mantiene tali risorse al sicuro.
2. Difendersi dalle minacce specifiche del modello
I modelli di intelligenza artificiale devono affrontare una serie di minacce che gli strumenti di sicurezza convenzionali non sono stati progettati per rilevare. Iniezione immediata è considerata la principale vulnerabilità nella top 10 OWASP per le applicazioni LLM (Large Language Model) e si verifica quando un utente malintenzionato incorpora istruzioni dannose all’interno di un input per sovrascrivere il comportamento di un modello. Uno dei modi più diretti per bloccare questi attacchi al punto di ingresso è implementare firewall specifici per l’intelligenza artificiale che convalidano e disinfettano gli input prima che raggiungano un LLM.
Oltre al filtraggio degli input, i team dovrebbero eseguire regolarmente test contraddittori, che sono essenzialmente hacking etico per l’intelligenza artificiale. Le esercitazioni del team rosso simulano scenari del mondo reale come l’avvelenamento dei dati e gli attacchi di inversione del modello per rivelare le vulnerabilità prima che gli autori delle minacce le trovino. La ricerca sui sistemi di intelligenza artificiale con team rosso evidenzia la necessità di questo tipo di test iterativi integrato nel ciclo di vita dello sviluppo dell’IA e non imbullonato dopo la distribuzione.
3. Mantenere una visibilità dettagliata dell’ecosistema
I moderni ambienti IA abbracciano reti on-premise, infrastrutture cloud, sistemi di posta elettronica ed endpoint. Quando i dati sulla sicurezza di ciascuna di queste aree si trovano in un silo separato, possono emergere lacune in termini di visibilità. Gli aggressori si muovono attraverso questi varchi senza essere scoperti. Una visione frammentata dell’ambiente rende quasi impossibile correlare gli eventi sospetti in un quadro coerente delle minacce.
I team di sicurezza necessitano di visibilità unificata in ogni livello del loro ambiente digitale. Ciò significa abbattere i silos di informazioni tra monitoraggio della rete, sicurezza del cloud, gestione delle identità e protezione degli endpoint. Quando la telemetria proveniente da tutte queste fonti confluisce in un’unica vista, gli analisti possono collegare i punti tra un accesso anomalo, un tentativo di movimento laterale e un evento di esfiltrazione di dati non vedendoli separatamente.
Il raggiungimento di questa ampiezza di copertura è sempre più non negoziabile. Come chiarisce il Cybersecurity Framework Profile for AI del NIST, proteggere questi sistemi richiede che le organizzazioni si protegganocontrastare e difendere in tutti i beni rilevanti, non quelli più visibili.
4. Adottare un processo di monitoraggio coerente
La sicurezza non è una configurazione una tantum perché i sistemi di intelligenza artificiale cambiano. I modelli vengono aggiornati, vengono introdotte nuove pipeline di dati, i comportamenti degli utenti cambiano e il panorama delle minacce si evolve con loro. Gli strumenti di rilevamento basati su regole faticano a tenere il passo perché si basano su firme di attacco note e non su analisi comportamentali in tempo reale.
Il monitoraggio continuo colma questa lacuna stabilendo una linea di base comportamentale per i sistemi di intelligenza artificiale e segnalando le deviazioni man mano che si verificano. Un monitoraggio coerente può segnalare attività insolite in un dato momento, che si tratti di un modello che produce risultati inaspettati, di un cambiamento improvviso nei modelli di chiamata API o di un account privilegiato che accede a dati che normalmente non dovrebbe. I team di sicurezza ricevono un avviso immediato con un contesto sufficiente per agire rapidamente.
Il passaggio al rilevamento in tempo reale è fondamentale per gli ambienti IA, dove il volume e la velocità dei dati superano di gran lunga la revisione umana. Gli strumenti di monitoraggio automatizzato che apprendono i normali modelli di comportamento possono rilevare attacchi bassi e lenti che altrimenti passerebbero inosservati per settimane.
5. Sviluppare un chiaro piano di risposta agli incidenti
Gli incidenti sono inevitabili, anche con forti controlli preventivi in atto. Senza un piano di risposta predefinito, le aziende rischiano di prendere decisioni costose sotto pressione, il che può peggiorare l’impatto di una violazione che avrebbe potuto essere contenuta rapidamente.
Un efficace piano di risposta agli incidenti IA dovrebbe coprire il contenimento, l’indagine, l’eradicazione e il ripristino:
- Contenimento: Limita l’impatto immediato isolando i sistemi interessati
- Investigazione: Stabilisce cosa è successo e fino a che punto è arrivato
- Eradicazione: Rimuove la minaccia e corregge i punti deboli sfruttati
- Recupero: Ripristina le normali operazioni con controlli più forti in atto
Gli incidenti legati all’intelligenza artificiale richiedono passaggi di ripristino unici, come la riqualificazione di un modello a cui sono stati forniti dati danneggiati o la revisione dei registri per vedere cosa ha prodotto il sistema mentre era compromesso. I team che pianificano in anticipo questi scenari si riprendono più velocemente e con danni alla reputazione molto minori.
I 3 principali fornitori per l’implementazione della sicurezza AI
L’implementazione di queste pratiche su larga scala richiede strumenti specifici. Tre fornitori si distinguono per le organizzazioni che desiderano mettere in pratica una seria strategia di sicurezza AI.
1. Traccia oscura
Darktrace è una scelta privilegiata per la sicurezza dell’intelligenza artificiale, in gran parte grazie alla sua fondamentale intelligenza artificiale ad autoapprendimento. Il sistema crea una comprensione dinamica di ciò che è normale nell’ambiente digitale unico di un’azienda. Invece di fare affidamento su regole statiche o firme di attacchi storici, l’intelligenza artificiale principale di Darktrace cerca eventi anomali, riducendo i falsi positivi che affliggono strumenti più basati su regole.
Un secondo livello di analisi è fornito dal suo Cyber AI Analyst, che indaga autonomamente ogni avviso e determina se fa parte di un incidente di sicurezza più ampio. Ciò può ridurre il numero di avvisi che arrivano nella coda di un analista SOC da centinaia a soli due o tre incidenti critici che richiedono attenzione.
Darktrace è stato tra i primi ad adottare l’intelligenza artificiale per la sicurezza informatica, conferendo alle sue soluzioni un vantaggio in termini di maturità rispetto ai nuovi concorrenti. La sua copertura abbraccia reti on-premise, infrastruttura cloud, e-mail, sistemi OT ed endpoint, tutti gestibili all’unisono o a livello di singolo prodotto. Le integrazioni con un solo clic dal portale clienti consentono ai marchi di estendere tale copertura senza cicli di implementazione lunghi e dirompenti.
2. Vectra AI
Vectra AI è un’ottima opzione per le organizzazioni che gestiscono ambienti ibridi o multi-cloud. La sua tecnologia Attack Signal Intelligence automatizza il rilevamento e la definizione delle priorità dei comportamenti degli aggressori nel traffico di rete e nei log del cloud, facendo emergere l’attività che conta di più senza inondare gli analisti con avvisi non elaborati.
Vectra adotta un approccio basato sul comportamento al rilevamento delle minacce, concentrandosi su ciò che fanno gli aggressori in un ambiente, non su come hanno inizialmente ottenuto l’accesso. Ciò lo rende efficace nel rilevare movimenti laterali, escalation di privilegi e attività di comando e controllo che aggirano le difese perimetrali. Per i team che gestiscono architetture ibride complesse, la capacità di Vectra di fornire un rilevamento coerente in ambienti on-premise e cloud in un’unica piattaforma rappresenta un vantaggio.
3. Sciopero della folla
CrowdStrike è riconosciuto come leader nella sicurezza degli endpoint cloud-native. La sua piattaforma Falcon è costruita su un potente modello di intelligenza artificiale addestrato su un ampio insieme di informazioni sulle minacce, che gli consente di prevenire, rilevare e rispondere alle minacce all’endpoint, inclusi i nuovi malware.
Negli ambienti in cui gli endpoint costituiscono una parte importante della superficie di attacco, il suo agente leggero e la configurazione nativa del cloud ne semplificano l’implementazione senza interrompere le operazioni. Le sue integrazioni di intelligence sulle minacce aiutano inoltre i team di sicurezza a collegare i punti, collegando ciò che sta accadendo su un singolo dispositivo a un modello di attacco più ampio che si verifica nell’intera infrastruttura.
Tracciare un futuro sicuro per l’intelligenza artificiale
Man mano che i sistemi di intelligenza artificiale diventano più capaci, anche le minacce progettate per sfruttarli diventeranno più sofisticate. Per garantire l’intelligenza artificiale è necessaria una strategia lungimirante basata sulla prevenzione, sulla visibilità continua e sulla risposta rapida, in grado di adattarsi all’evoluzione dell’ambiente.
Fonte: www.artificialintelligence-news.com
