Nel contesto dell’esplosione dei sistemi di intelligenza artificiale, i browser web basati sull’intelligenza artificiale come Fellou e Comet di Perplexity hanno iniziato a fare la loro comparsa sui desktop aziendali. Tali applicazioni sono descritte come la prossima evoluzione dell’umile browser e sono dotate di funzionalità AI integrate; possono leggere e riassumere le pagine web e, nella versione più avanzata, agire sui contenuti web in modo autonomo.
Almeno in teoria, la promessa di un browser AI è che accelererà i flussi di lavoro digitali, intraprenderà ricerche online e recupererà informazioni da fonti interne e da Internet in generale.
Tuttavia, gruppi di ricerca sulla sicurezza stanno concludendo che i browser AI introducono seri rischi nell’azienda che semplicemente non possono essere ignorati.
Il problema risiede nel fatto che i browser AI sono altamente vulnerabili agli attacchi indiretti di prompt injection. È qui che il modello nel browser (o a cui accede tramite il browser) riceve istruzioni nascoste in siti Web appositamente predisposti. Incorporando testo in pagine web o immagini in modi che gli esseri umani trovano difficili da distinguere, i modelli di intelligenza artificiale possono ricevere istruzioni sotto forma di prompt AI o modifiche ai prompt immessi dall’utente.
La conclusione per i dipartimenti IT e i decisori è che i browser AI non sono ancora adatti all’uso in azienda e rappresentano una significativa minaccia alla sicurezza.
L’automazione incontra l’esposizione
Nei test, i ricercatori hanno scoperto che il testo incorporato nei contenuti online viene elaborato dal browser AI e interpretato come istruzioni per il modello intelligente. Queste istruzioni possono essere eseguite utilizzando i privilegi dell’utente, quindi maggiore è il grado di accesso alle informazioni dell’utente, maggiore è il rischio per l’organizzazione. L’autonomia che l’intelligenza artificiale offre agli utenti è lo stesso meccanismo che amplifica la superficie di attacco, e maggiore è l’autonomia, maggiore è la potenziale portata della perdita di dati.
Ad esempio, è possibile incorporare comandi di testo in un’immagine che, se visualizzata nel browser, potrebbe far interagire un assistente AI con risorse sensibili, come la posta elettronica aziendale o i dashboard dell’online banking. Un altro test ha mostrato come il prompt di un assistente AI possa essere dirottato e indotto a eseguire azioni non autorizzate per conto dell’utente.
Questi tipi di vulnerabilità vanno chiaramente contro tutti i principi di governance dei dati e sono l’esempio più evidente di come l’“IA ombra”, sotto forma di browser non autorizzato, rappresenti una minaccia reale per i dati di un’organizzazione. Il modello di intelligenza artificiale funge da ponte tra i domini ed elude le politiche della stessa origine, la regola che impedisce l’accesso ai dati da un dominio da parte di un altro.
Sfide di implementazione e governance
La radice del problema è la fusione delle query degli utenti nel browser con i dati in tempo reale a cui si accede sul web. Se l’LLM non è in grado di distinguere tra input sicuri e dannosi, può accedere tranquillamente ai dati non richiesti dal suo operatore umano e agire di conseguenza. Quando vengono fornite le capacità degli agenti, le conseguenze possono essere di vasta portata e potrebbero facilmente causare una cascata di attività dannose in tutta l’azienda.
Per qualsiasi organizzazione che fa affidamento sulla segmentazione dei dati e sul controllo degli accessi, un livello di intelligenza artificiale compromesso nel browser di un utente può aggirare i firewall, attuare scambi di token e utilizzare cookie sicuri esattamente nello stesso modo in cui farebbe un utente. In effetti, il browser AI diventa una minaccia interna, con accesso a tutti i dati e alle strutture del suo operatore umano. L’utente del browser non sarà necessariamente a conoscenza dell’attività “nascosta”, pertanto un browser infetto potrebbe agire per periodi di tempo significativi senza essere rilevato.
Mitigazione della minaccia
La prima generazione di browser AI dovrebbe essere considerata dai team IT allo stesso modo in cui trattano l’installazione non autorizzata di software di terze parti. Sebbene sia relativamente semplice impedire l’installazione di software specifico da parte degli utenti, vale la pena notare che i browser tradizionali come Chrome ed Edge vengono forniti con un numero maggiore di funzionalità AI sotto forma di Gemini (in Chrome) e Copilot (in Edge). Le aziende produttrici di browser stanno esplorando attivamente le capacità di navigazione potenziate dall’intelligenza artificiale e le funzionalità degli agenti (che garantiscono una significativa autonomia al browser) appariranno rapidamente, spinte dalla necessità di un vantaggio competitivo tra le società di browser.
Senza supervisione e controlli adeguati, le organizzazioni si espongono a rischi significativi. Le future generazioni di browser dovrebbero essere controllate per le seguenti funzionalità:
- Isolamento dei prompt, separando le intenzioni dell’utente dai contenuti Web di terze parti prima della generazione dei prompt LLM.
- Autorizzazioni controllate. Gli agenti AI non dovrebbero essere in grado di eseguire azioni autonome, inclusa la navigazione, il recupero dei dati o l’accesso ai file senza la conferma esplicita dell’utente.
- Sandboxing della navigazione sensibile (come risorse umane, finanza, dashboard interni, ecc.) quindi non vi è alcuna attività di intelligenza artificiale in queste aree sensibili.
- Integrazione della governance. L’intelligenza artificiale basata su browser deve allinearsi alle politiche di sicurezza dei dati e il software dovrebbe fornire record per rendere tracciabili le azioni degli agenti.
Ad oggi, nessun fornitore di browser ha presentato un browser intelligente in grado di distinguere tra intenti guidati dall’utente e comandi interpretati dal modello. Senza questo, i browser potrebbero essere costretti ad agire contro l’organizzazione utilizzando un prompt injection relativamente banale.
Takeaway per il decisore
I browser Agentic AI sono presentati come la prossima evoluzione logica nella navigazione web e nell’automazione sul posto di lavoro. Sono progettati deliberatamente per offuscare la distinzione tra attività utente/umana e diventare parte delle interazioni con le risorse digitali dell’azienda. Data la facilità con cui gli LLM nei browser AI vengono aggirati e danneggiati, l’attuale generazione di browser AI può essere considerata un malware dormiente.
I principali fornitori di browser sembrano destinati a incorporare l’intelligenza artificiale (con o senza capacità di agenti) nelle generazioni future delle loro piattaforme, quindi dovrebbe essere intrapreso un attento monitoraggio di ogni versione per garantire il controllo della sicurezza.
(Fonte immagine: “Bomba inesplosa!” di Hugh llewelyn è concesso in licenza sotto CC BY-SA 2.0.)
Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com

