Il toolkit open source Microsoft protegge gli agenti IA in fase di runtime

 | Intelligenza-Artificiale

Un nuovo kit di strumenti open source di Microsoft si concentra sulla sicurezza runtime per imporre una governance rigorosa agli agenti AI aziendali. Il comunicato affronta un’ansia crescente: i modelli linguistici autonomi stanno ora eseguendo codice e colpendo le reti aziendali molto più velocemente di quanto i controlli politici tradizionali possano tenere il passo.

In passato l’integrazione dell’intelligenza artificiale significava interfacce conversazionali e copiloti consultivi. Tali sistemi avevano accesso in sola lettura a set di dati specifici, mantenendo gli esseri umani strettamente nel ciclo di esecuzione. Le organizzazioni stanno attualmente implementando framework di agenti che intraprendono azioni indipendenti, collegando questi modelli direttamente alle interfacce di programmazione delle applicazioni interne, ai repository di archiviazione cloud e alle pipeline di integrazione continua.

Quando un agente autonomo può leggere un’e-mail, decidere di scrivere uno script e inviarlo a un server, è fondamentale una governance più rigorosa. L’analisi statica del codice e la scansione delle vulnerabilità pre-implementazione non sono in grado di gestire la natura non deterministica di modelli linguistici di grandi dimensioni. Un attacco di iniezione tempestivo (o anche un’allucinazione di base) potrebbe inviare un agente a sovrascrivere un database o estrarre i record dei clienti.

Il nuovo toolkit di Microsoft esamina invece la sicurezza in fase di esecuzione, fornendo un modo per monitorare, valutare e bloccare le azioni nel momento in cui il modello tenta di eseguirle. È meglio fare affidamento sulla formazione precedente o sui controlli dei parametri statici.

Intercettare il livello di chiamata degli strumenti in tempo reale

Osservando i meccanismi della chiamata degli strumenti agentici si vede come funziona. Quando un agente AI aziendale deve uscire dalla sua rete neurale principale per fare qualcosa come interrogare un sistema di inventario, genera un comando per colpire uno strumento esterno.

La struttura di Microsoft inserisce un motore di applicazione delle policy direttamente tra il modello linguistico e la rete aziendale più ampia. Ogni volta che l’agente tenta di attivare una funzione esterna, il toolkit cattura la richiesta e controlla l’azione prevista rispetto a un insieme centrale di regole di governance. Se l’azione infrange la policy (ad esempio un agente autorizzato solo a leggere i dati di inventario tenta di avviare un ordine di acquisto) il toolkit blocca la chiamata API e registra l’evento in modo che un essere umano possa esaminarlo.

I team di sicurezza ottengono una traccia verificabile e verificabile di ogni singola decisione autonoma. Anche gli sviluppatori vincono qui; possono costruire complessi sistemi multi-agente senza dover codificare i protocolli di sicurezza in ogni singolo prompt del modello. Le policy di sicurezza vengono completamente disaccoppiate dalla logica dell’applicazione principale e vengono gestite a livello di infrastruttura.

La maggior parte dei sistemi legacy non è mai stata costruita per comunicare con software non deterministico. Un vecchio database mainframe o una suite personalizzata di pianificazione delle risorse aziendali non dispone di difese native contro un modello di machine learning che si lancia su richieste non valide. Il toolkit di Microsoft interviene come livello di traduzione protettivo. Anche se un modello linguistico sottostante viene compromesso da input esterni; vale il perimetro del sistema.

I leader della sicurezza potrebbero chiedersi perché Microsoft abbia deciso di rilasciare questo toolkit runtime con una licenza open source. Dipende da come funzionano effettivamente le moderne catene di fornitura del software.

Gli sviluppatori si stanno attualmente affrettando a creare flussi di lavoro autonomi utilizzando un massiccio mix di librerie open source, framework e modelli di terze parti. Se Microsoft bloccasse questa funzionalità di sicurezza runtime sulle sue piattaforme proprietarie, i team di sviluppo probabilmente la ignorerebbero per soluzioni alternative più rapide e non controllate per rispettare le scadenze.

Diffondere apertamente il toolkit significa che i controlli di sicurezza e governance possono adattarsi a qualsiasi stack tecnologico. Non importa se un’organizzazione utilizza modelli open-weight locali, si appoggia a concorrenti come Anthropic o implementa architetture ibride.

Definizione di uno standard aperto per la sicurezza degli agenti IA consente inoltre alla più ampia comunità di sicurezza informatica di intervenire. I fornitori di sicurezza possono impilare dashboard commerciali e integrazioni di risposta agli incidenti su questa base aperta, che accelera la maturità dell’intero ecosistema. Le aziende evitano il vincolo del fornitore, ma ottengono comunque una base di sicurezza universalmente esaminata.

La fase successiva della governance dell’AI aziendale

La governance aziendale non si ferma solo alla sicurezza; colpisce anche la supervisione finanziaria e operativa. Gli agenti autonomi vengono eseguiti in un ciclo continuo di ragionamento ed esecuzione, bruciando token API ad ogni passaggio. Le startup e le imprese stanno già vedendo esplodere i costi simbolici quando implementano sistemi ad agenti.

Senza governance del runtime, un agente incaricato di individuare una tendenza di mercato potrebbe decidere di accedere a un costoso database proprietario migliaia di volte prima che finisca. Se lasciato solo, un agente mal configurato e intrappolato in un ciclo ricorsivo può accumulare ingenti fatture per il cloud computing in poche ore.

Il toolkit di runtime offre ai team la possibilità di imporre limiti rigidi al consumo di token e alla frequenza delle chiamate API. Definendo i limiti relativi al numero esatto di azioni che un agente può intraprendere in un periodo di tempo specifico, la previsione dei costi di elaborazione diventa molto più semplice. Inoltre impedisce ai processi incontrollati di consumare risorse di sistema.

Un livello di governance runtime trasmette le metriche quantitative e i meccanismi di controllo necessari per soddisfare i mandati di conformità. I giorni in cui ci si affidava solo ai fornitori di modelli per filtrare gli output errati stanno finendo. La sicurezza del sistema ora ricade sull’infrastruttura che esegue effettivamente le decisioni dei modelli

Far decollare un programma di governance maturo richiederà una stretta collaborazione tra i team delle operazioni di sviluppo, quelli legali e quelli di sicurezza. Le capacità dei modelli linguistici stanno solo aumentando e le organizzazioni che mettono in atto severi controlli di runtime oggi sono le uniche che saranno attrezzate per gestire i flussi di lavoro autonomi di domani.

Vedi anche: Man mano che gli agenti dell’intelligenza artificiale assumono sempre più compiti, la governance diventa una priorità

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *