L’intelligenza artificiale si sta diffondendo nei luoghi di lavoro più velocemente di qualsiasi altra tecnologia negli ultimi tempi. Ogni giorno, i dipendenti collegano le tecnologie AI ai sistemi aziendali, spesso senza il permesso o la supervisione dei team di sicurezza IT. Il risultato è quello che gli esperti chiamano IA ombra – una rete crescente di strumenti e integrazioni che accedono ai dati aziendali senza alcun monitoraggio.
Dott. Tal Shapira, cofondatore e CTO del fornitore di soluzioni di sicurezza SaaS e governance dell’intelligenza artificiale Ricoafferma che questa espansione invisibile potrebbe diventare una delle maggiori minacce che le organizzazioni devono affrontare oggi, soprattutto perché l’attuale velocità di adozione dell’intelligenza artificiale ha superato le misure di salvaguardia aziendali.
“Siamo passati da ‘L’intelligenza artificiale sta arrivando’ a ‘L’intelligenza artificiale è ovunque’ in circa 18 mesi. Il problema è che i quadri di governance semplicemente non sono stati al passo”, ha affermato Shapira.
Il rischio invisibile nei sistemi aziendali
Shapira ha affermato che la maggior parte dei sistemi di sicurezza aziendali sono stati progettati per un mondo più vecchio in cui tutto rimaneva dietro firewall e confini di rete. L’intelligenza artificiale ombra rompe questo modello perché funziona dall’interno, nascosta negli strumenti dell’azienda.
Molti moderni Strumenti di intelligenza artificiale connettiti direttamente alle piattaforme SaaS di tutti i giorni come Salesforce, Slack o Google Workspace. Anche se questo non rappresenta di per sé un rischio, l’intelligenza artificiale spesso lo fa attraverso autorizzazioni e plug-in che rimangono attivi dopo l’installazione. Questi collegamenti “silenziosi” possono continuare a fornire ai sistemi di intelligenza artificiale l’accesso ai dati aziendali, anche dopo che la persona che li ha configurati smette di utilizzarli o lascia l’organizzazione. Questo è un grosso problema dell’IA ombra.
Shapira ha affermato: “Il problema più profondo è che questi strumenti si stanno incorporando nell’infrastruttura dell’azienda, a volte per mesi o anni senza essere rilevati”.
La nuova classe di rischio è particolarmente difficile da monitorare poiché molti sistemi di intelligenza artificiale sono probabilistici. Invece di eseguire comandi chiari, l’intelligenza artificiale fa previsioni basate su modelli, quindi le loro azioni possono cambiare da una situazione all’altra, rendendole più difficili da rivedere e controllare.
Quando l’IA diventa una canaglia
Il danno dell’IA ombra è già evidente negli incidenti del mondo reale. Reco ha recentemente collaborato con una società finanziaria Fortune 100 che riteneva che i suoi sistemi fossero sicuri e conformi. Nei giorni di implementazione del monitoraggio di Reco, l’azienda ha scoperto più di 1.000 integrazioni di terze parti non autorizzate nei suoi ambienti Salesforce e Microsoft 365, oltre la metà delle quali basate sull’intelligenza artificiale.
Un’integrazione, uno strumento di trascrizione collegato a Zoom, registrava ogni chiamata dei clienti, comprese discussioni sui prezzi e feedback riservati. “Stavano inconsapevolmente addestrando un modello di terze parti sui loro dati più sensibili”, ha osservato Shapira. “Non esisteva alcun contratto, nessuna comprensione di come i dati venivano archiviati o utilizzati.”
In un altro caso, un dipendente collegato ChatGPT direttamente a Salesforce, consentendo all’intelligenza artificiale di generare centinaia di report interni in poche ore. Potrebbe sembrare efficiente, ma espone anche le informazioni sui clienti e le previsioni di vendita a un sistema di intelligenza artificiale esterno.
Come Reco rileva ciò che non viene rilevato
La piattaforma di Reco è progettata per offrire alle aziende piena visibilità su quali strumenti di intelligenza artificiale sono collegati ai loro sistemi e a quali dati possono accedere tali strumenti. Esegue la scansione continua degli ambienti SaaS alla ricerca di concessioni OAuth, app di terze parti ed estensioni del browser. Una volta identificati, Reco mostra quali utenti li hanno installati, quali autorizzazioni possiedono e se il comportamento sembra sospetto.
Se una connessione appare rischiosa, il sistema può avvisare gli amministratori o revocare automaticamente l’accesso. “La velocità è importante perché gli strumenti di intelligenza artificiale possono estrarre enormi quantità di dati in poche ore, non in giorni”, ha affermato Shapira.
A differenza dei prodotti di sicurezza tradizionali che si basano sui confini della rete, Reco si concentra sul livello di identità e accesso. Ciò lo rende particolarmente adatto alle odierne organizzazioni cloud-first e SaaS, in cui la maggior parte dei dati risiede al di fuori del firewall tradizionale.
Un campanello d’allarme sulla sicurezza più ampio
Gli analisti del settore affermano che il lavoro di Reco riflette una tendenza più ampia nella sicurezza aziendale: il passaggio dal blocco dell’intelligenza artificiale al suo governo. Secondo un recente Rapporto Cisco sulla preparazione dell’intelligenza artificialenel 2025 il 62% delle organizzazioni ha ammesso di avere scarsa visibilità sul modo in cui i dipendenti utilizzano gli strumenti di intelligenza artificiale sul lavoro e quasi la metà ha già sperimentato almeno un incidente relativo ai dati correlato all’intelligenza artificiale.
Man mano che le funzionalità di intelligenza artificiale vengono integrate nei software tradizionali, da Einstein di Salesforce a Microsoft Copilot, la sfida cresce. “Potresti pensare di utilizzare una piattaforma affidabile”, ha detto Shapira, “ma potresti non renderti conto che la piattaforma ora include funzionalità di intelligenza artificiale che accedono automaticamente ai tuoi dati.”
Il sistema di Reco aiuta a colmare il divario monitorando le attività di intelligenza artificiale autorizzate e non autorizzate, aiutando le aziende a creare un quadro più chiaro di dove fluiscono i loro dati e perché.
Sfruttare l’intelligenza artificiale in modo sicuro
Shapira ritiene che le imprese stiano entrando in quella che chiama la fase dell’infrastruttura AI, un periodo in cui ogni strumento aziendale includerà una qualche forma di AI, visibile o meno. Ciò rende essenziali il monitoraggio continuo, l’accesso con privilegi minimi e le autorizzazioni di breve durata.
“Le aziende che avranno successo non saranno quelle che bloccheranno l’intelligenza artificiale”, ha osservato. “Saranno loro ad adottarlo in modo sicuro, con guardrail che proteggano sia l’innovazione che la fiducia”.
L’intelligenza artificiale ombra, ha affermato, non è un segno di imprudenza da parte dei dipendenti, ma della rapidità con cui la tecnologia si è evoluta. “Le persone stanno cercando di essere produttive”, ha detto. “Il nostro compito è assicurarci che possano farlo senza mettere a rischio l’organizzazione”.
Per le aziende che cercano di sfruttare l’intelligenza artificiale senza perdere il controllo dei propri dati, il messaggio di Reco è semplice: non è possibile proteggere ciò che non si può vedere.
Fonte immagine: Unsplash
Fonte: www.artificialintelligence-news.com
