Sfruttare l’intelligenza artificiale per la sicurezza informatica aziendale

 | Intelligenza-Artificiale

La sicurezza informatica è nel mezzo di una fresca corsa agli armamenti e la potente arma preferita in questa nuova era è AI.

L’IA offre una classica spada a doppio taglio: uno scudo potente per i difensori e un potente nuovo strumento per quelli con intenti dannosi. Navigare in questo complesso campo di battaglia richiede una mano ferma e una profonda comprensione sia della tecnologia che delle persone che la abuserebbero.

Per ottenere una vista dalle prime linee, AI News ha incontrato Rachel James, ingegnere di intelligence delle minacce principali di AI ML presso Global Biopharmaceutical Company Abbvie.

Headshot di Rachel James, ingegnere di intelligence delle minacce principali AI ML presso la società globale biofarmaceutica Abbvie, per un articolo sulla sicurezza informatica commerciale in questa nuova era.

“Oltre all’aumento integrato nell’intelligenza artificiale che è stato fornito dai fornitori nei nostri strumenti attuali, utilizziamo anche l’analisi LLM sui nostri rilevamenti, osservazioni, correlazioni e regole associate”, spiega James.

James e il suo team stanno usando grandi modelli di linguaggio per setacciare una montagna di avvisi di sicurezza, alla ricerca di schemi, a individuare duplicati e trovando pericolosi lacune nelle loro difese prima che un aggressore possa fare.

“Usiamo questo per determinare la somiglianza, la duplicazione e fornire analisi del divario”, aggiunge, osservando che il passo successivo è intrecciare dati di minaccia ancora più esterni. “Stiamo cercando di migliorarlo con l’integrazione dell’intelligenza delle minacce nella nostra prossima fase.”

Central in questa operazione è una piattaforma di intelligence per minacce specializzata chiamata OpenctiIl che li aiuta a costruire un quadro unificato di minacce da un mare di rumore digitale.

L’intelligenza artificiale è il motore che rende possibile questo sforzo di sicurezza informatica, prendendo grandi quantità di testo confuso e non strutturato e organizzandolo ordinatamente in un formato standard noto come Stix. La grande visione, afferma James, è quella di utilizzare i modelli linguistici per collegare questa intelligenza principale con tutte le altre aree delle loro operazioni di sicurezza, dalla gestione della vulnerabilità al rischio di terze parti.

Sfruttare questo potere, tuttavia, ha una sana dose di cautela. Come contributo chiave a un’importante iniziativa del settore, James è profondamente consapevole delle insidie.

“Sarei negligente se non avessi menzionato il lavoro di un meraviglioso gruppo di persone di cui faccio parte – il ‘OWASP Top 10 per Genai’ Come modo fondamentale di comprendere le vulnerabilità che Genai può introdurre “, afferma.

Oltre vulnerabilità specifiche, James punta a tre compromessi fondamentali che i leader delle imprese devono affrontare:

  1. Accettando il rischio che deriva dalla natura creativa ma spesso imprevedibile dell’IA generativa.
  2. La perdita di trasparenza nel modo in cui l’IA raggiunge le sue conclusioni, un problema che cresce solo man mano che i modelli diventano più complessi.
  3. Il pericolo di giudicare male il vero ritorno sugli investimenti per qualsiasi progetto AI, in cui l’hype può facilmente portare a sopravvalutare i benefici o sottovalutare lo sforzo richiesto in un campo così rapido.

Per costruire una migliore postura della sicurezza informatica nell’era AI, devi capire il tuo aggressore. È qui che entra in gioco la profonda competenza di James.

“Questa è in realtà la mia competenza particolare: ho un background di intelligence per minacce informatiche e ho condotto e documentato ricerche approfondite sull’interesse, l’uso e lo sviluppo dell’attore delle minacce”, osserva.

James traccia attivamente le chiacchiere dell’avversario e lo sviluppo degli strumenti attraverso canali open source e le sue collezioni automatizzate dal web oscuro, condividendo le sue scoperte su di lei Cybershujin Github. Il suo lavoro prevede anche di sporcarsi le mani.

“Come piombo per la pronta voce di iniezione per OWASP e coautore del Guida al Red Teaming GenaiTrascorro anche il tempo a sviluppare da solo le tecniche di input contraddittoria e mantengo una rete di esperti anche in questo campo “, aggiunge James.

Allora, cosa significa tutto ciò per il futuro del settore? Per James, il percorso in avanti è chiaro. Indica un affascinante parallelo che ha scoperto anni fa: “Il ciclo di vita dell’intelligence per minaccia informatica è quasi identica al ciclo di vita della scienza dei dati fondamentali per i sistemi AI ML”.

Questo allineamento è un’enorme opportunità. “Senza dubbio, in termini di set di dati con cui possiamo operare, i difensori hanno una possibilità unica di capitalizzare il potere della condivisione dei dati dell’intelligence e dell’IA”, afferma.

Il suo ultimo messaggio offre sia incoraggiamento che un avvertimento per i suoi coetanei nel mondo della sicurezza informatica: “La scienza dei dati e l’intelligenza artificiale faranno parte della vita di ogni professionista della sicurezza informatica che va avanti, abbraccialo”.

Rachel James condividerà le sue intuizioni a quest’anno AI e Big Data Expo Europa ad Amsterdam il 24-25 settembre 2025. Assicurati di dare un’occhiata alla sua presentazione del secondo giorno su “dal principio alla pratica-incorporare l’etica dell’IA su vasta scala”.

Vedi anche: Google Cloud svela Ai Ally per i team di sicurezza

Vuoi saperne di più sull’intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L’evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber ​​Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *