Le carenze in termini di sicurezza emergono nella corsa globale all’intelligenza artificiale

 | Intelligenza-Artificiale

Secondo Magola corsa tra le aziende di intelligenza artificiale sta portando molti a trascurare le pratiche igieniche di sicurezza di base.

Il 65% delle 50 principali aziende di intelligenza artificiale analizzate dall’azienda di sicurezza informatica avevano divulgato segreti verificati su GitHub. Le esposizioni includono chiavi API, token e credenziali sensibili, spesso sepolte in repository di codici che gli strumenti di sicurezza standard non controllano.

Glyn Morgan, Country Manager per Regno Unito e Irlanda presso Sicurezza del saleha descritto questa tendenza come un errore basilare e prevenibile. “Quando le aziende di intelligenza artificiale espongono accidentalmente le loro chiavi API, mettono a nudo un evidente errore di sicurezza evitabile”, ha affermato.

“È l’esempio da manuale di governance abbinata a una configurazione di sicurezza, due delle categorie di rischio segnalate da OWASP. Inserendo le credenziali nei repository di codice offrono agli aggressori un biglietto d’oro per sistemi, dati e modelli, eludendo di fatto i soliti livelli difensivi.”

Il rapporto di Wiz evidenzia il rischio sempre più complesso per la sicurezza della catena di fornitura. Il problema si estende oltre i team di sviluppo interni; poiché le aziende collaborano sempre più con le startup IA, potrebbero ereditarne il livello di sicurezza. I ricercatori avvertono che alcune delle fughe di notizie riscontrate “potrebbero aver messo in luce strutture organizzative, dati di formazione o persino modelli privati”.

La posta in gioco finanziaria è considerevole. Le società analizzate con fughe di notizie verificate hanno una valutazione complessiva di oltre 400 miliardi di dollari.

Il rapporto, incentrato sulle società quotate nell’indice Forbes AI 50, fornisce esempi dei rischi:

  • Si è scoperto che LangChain aveva esposto più chiavi API Langsmith, alcune con autorizzazioni per gestire l’organizzazione ed elencarne i membri. Questo tipo di informazioni è molto apprezzato dagli aggressori per la ricognizione.
  • È stata scoperta una chiave API di livello aziendale per ElevenLabs in un file di testo normale.
  • Una società AI 50 senza nome aveva un token HuggingFace esposto in un fork del codice eliminato. Questo singolo token “consente (ndr) l’accesso a circa 1.000 modelli privati”. La stessa azienda ha anche fatto trapelare le chiavi di WeightsAndBiases, esponendo i “dati di addestramento per molti modelli privati”.

Il rapporto Wiz suggerisce che questo problema è così diffuso perché i tradizionali metodi di scansione di sicurezza non sono più sufficienti. Affidarsi alle scansioni di base dei principali repository GitHub di un’azienda è un “approccio standardizzato” che non coglie i rischi più gravi.

I ricercatori descrivono la situazione come un “iceberg” (cioè i rischi più evidenti sono visibili, ma il pericolo maggiore si trova “sotto la superficie”.) Per trovare questi rischi nascosti, i ricercatori hanno adottato una metodologia di scansione tridimensionale che chiamano “Profondità, perimetro e copertura”:

  • Profondità: La loro scansione approfondita ha analizzato la “cronologia completa dei commit, la cronologia dei commit sui fork, i fork eliminati, i log e i contenuti del flusso di lavoro”, aree che la maggior parte degli scanner “non tocca mai”.
  • Perimetro: La scansione è stata estesa oltre l’organizzazione aziendale principale per includere membri dell’organizzazione e contributori. Questi individui potrebbero “registrare inavvertitamente i segreti relativi all’azienda nei propri archivi pubblici”. Il team ha identificato questi account adiacenti monitorando i contributori del codice, i follower dell’organizzazione e persino “le correlazioni in reti correlate come HuggingFace e npm”.
  • Copertura: I ricercatori hanno cercato specificamente nuovi tipi segreti legati all’intelligenza artificiale che spesso gli scanner tradizionali non riescono a cogliere, come le chiavi per piattaforme come WeightsAndBiases, Groq e Perplexity.

Questa superficie di attacco ampliata è particolarmente preoccupante data l’apparente mancanza di maturità della sicurezza in molte aziende in rapida evoluzione. Il rapporto rileva che quando i ricercatori hanno cercato di rivelare le fughe di notizie, quasi la metà delle rivelazioni non sono riuscite a raggiungere l’obiettivo o non hanno ricevuto risposta. Molte aziende non disponevano di un canale di divulgazione ufficiale o semplicemente non sono riuscite a risolvere il problema una volta notificate.

I risultati di Wiz servono da monito per i dirigenti tecnologici aziendali, evidenziando tre elementi di azione immediata per la gestione del rischio per la sicurezza sia interno che di terze parti.

  1. I leader della sicurezza devono trattare i propri dipendenti come parte della superficie di attacco della propria azienda. Il rapporto consiglia di creare una policy per i membri del sistema di controllo della versione (VCS) da applicare durante l’onboarding dei dipendenti. Questa politica dovrebbe imporre pratiche come l’utilizzo dell’autenticazione a più fattori per gli account personali e il mantenimento di una rigida separazione tra attività personale e professionale su piattaforme come GitHub.
  1. La scansione dei segreti interni deve evolversi oltre i controlli di base del repository. Il rapporto esorta le aziende a imporre la scansione segreta pubblica del VCS come “difesa non negoziabile”. Questa scansione deve adottare la suddetta mentalità “Profondità, perimetro e copertura” per individuare le minacce in agguato sotto la superficie.
  1. Questo livello di controllo deve essere esteso all’intera catena di fornitura dell’IA. Quando valutano o integrano gli strumenti dei fornitori di intelligenza artificiale, i CISO dovrebbero sondare le loro pratiche di gestione dei segreti e di divulgazione delle vulnerabilità. Il rapporto rileva che molti fornitori di servizi di intelligenza artificiale stanno divulgando le proprie chiavi API e dovrebbero “dare priorità al rilevamento dei propri tipi segreti”.

Il messaggio centrale per le aziende è che gli strumenti e le piattaforme che definiscono la prossima generazione di tecnologia vengono costruiti a un ritmo che spesso supera la governance della sicurezza. Come conclude Wiz, “Per gli innovatori dell’intelligenza artificiale, il messaggio è chiaro: la velocità non può compromettere la sicurezza”. Per le imprese che dipendono da tale innovazione vale lo stesso avvertimento.

Vedi anche: Esclusivo: il capo del governo digitale di Dubai afferma che la velocità supera la spesa nella corsa all’efficienza dell’intelligenza artificiale

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informaticaclic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *