La guida di Deloitte all’IA agentica pone l’accento sulla governance

 | Intelligenza-Artificiale

Un nuovo rapporto da Deloitte ha avvertito che le aziende stanno implementando agenti IA più velocemente di quanto i loro protocolli di sicurezza e le loro misure di sicurezza riescano a tenere il passo. Pertanto, si stanno diffondendo serie preoccupazioni in merito alla sicurezza, alla privacy dei dati e alla responsabilità.

Secondo l’indagine, i sistemi ad agenti stanno passando dal progetto pilota alla produzione così rapidamente che i tradizionali controlli del rischio, progettati per operazioni più incentrate sull’uomo, faticano a soddisfare le esigenze di sicurezza.

Solo il 21% delle organizzazioni ha implementato una governance o una supervisione rigorosa per gli agenti di intelligenza artificiale, nonostante l’aumento del tasso di adozione. Sebbene il 23% delle aziende abbia dichiarato di utilizzare attualmente agenti IA, nei prossimi due anni questa percentuale dovrebbe salire al 74%. Si prevede che la percentuale di aziende che non hanno ancora adottato questa tecnologia scenderà dal 25% ad appena il 5% nello stesso periodo.

La cattiva governance è la minaccia

Deloitte non evidenzia gli agenti di intelligenza artificiale come intrinsecamente pericolosi, ma afferma che i rischi reali sono associati a un contesto inadeguato e a una governance debole. Se gli agenti operano come entità proprie, le loro decisioni e azioni possono facilmente diventare opache. Senza una governance solida, diventa difficile da gestire e quasi impossibile assicurarsi contro gli errori.

Secondo Ali Sarrafi, CEO e fondatore di Kovantla risposta è l’autonomia governata. “Agenti ben progettati con confini chiari, politiche e definizioni gestite allo stesso modo in cui un’impresa gestisce qualsiasi lavoratore possono muoversi rapidamente su lavori a basso rischio all’interno di guardrail chiari, ma passare agli esseri umani quando le azioni superano soglie di rischio definite”.

“Con registri dettagliati delle azioni, osservabilità e controllo umano per decisioni ad alto impatto, gli agenti smettono di essere robot misteriosi e diventano sistemi ispezionabili, verificabili e affidabili.”

Come suggerisce il rapporto di Deloitte, l’adozione degli agenti IA è destinata ad accelerare nei prossimi anni e solo le aziende che implementano la tecnologia con visibilità e controllo avranno il sopravvento sui concorrenti, non quelle che li implementano più rapidamente.

Perché gli agenti IA necessitano di guardrail robusti

Gli agenti IA possono funzionare bene in demo controllate, ma hanno difficoltà in contesti aziendali reali in cui i sistemi possono essere frammentati e i dati potrebbero essere incoerenti.

Sarrafi ha commentato la natura imprevedibile degli agenti IA in questi scenari. “Quando a un agente viene dato troppo contesto o ambito in una sola volta, diventa incline ad allucinazioni e comportamenti imprevedibili.”

“Al contrario, i sistemi di livello produttivo limitano la decisione e l’ambito del contesto con cui lavorano i modelli. Scompongono le operazioni in compiti più ristretti e mirati per i singoli agenti, rendendo il comportamento più prevedibile e più facile da controllare. Questa struttura consente inoltre la tracciabilità e l’intervento, in modo che i guasti possano essere rilevati tempestivamente e intensificati in modo appropriato anziché causare errori a cascata.”

Responsabilità per l’IA assicurabile

Con gli agenti che intraprendono azioni reali nei sistemi aziendali, come tenere registri dettagliati delle azioni, il rischio e la conformità vengono visti in modo diverso. Con ogni azione registrata, le attività degli agenti diventano chiare e valutabili, consentendo alle organizzazioni di ispezionare le azioni in dettaglio.

Tale trasparenza è fondamentale per gli assicuratori, che sono riluttanti a coprire i sistemi di intelligenza artificiale opachi. Questo livello di dettaglio aiuta gli assicuratori a capire cosa hanno fatto gli agenti e i controlli coinvolti, facilitando così la valutazione del rischio. Con la supervisione umana delle azioni critiche per il rischio e flussi di lavoro verificabili e riproducibili, le organizzazioni possono produrre sistemi più gestibili per la valutazione del rischio.

Gli standard AAIF rappresentano un buon primo passo

Standard condivisi, come quelli sviluppati da Fondazione Agentic AI (AAIF)aiutare le aziende a integrare diversi sistemi ad agenti, ma gli attuali sforzi di standardizzazione si concentrano su ciò che è più semplice da costruire, non su ciò di cui le organizzazioni più grandi hanno bisogno per gestire in sicurezza i sistemi ad agenti.

Sarrafi afferma che le imprese richiedono standard che supportino il controllo operativo e che includano “autorizzazioni di accesso, flussi di lavoro di approvazione per azioni ad alto impatto, registri verificabili e osservabilità, in modo che i team possano monitorare il comportamento, indagare sugli incidenti e dimostrare la conformità”.

Identità e autorizzazioni la prima linea di difesa

Limitare l’accesso degli agenti AI e le azioni che possono eseguire è importante per garantire la sicurezza negli ambienti aziendali reali. Sarrafi ha affermato: “Quando agli agenti vengono concessi ampi privilegi o un contesto eccessivo, diventano imprevedibili e comportano rischi per la sicurezza o la conformità”.

Visibilità e monitoraggio sono importanti per mantenere gli agenti operativi entro i limiti. Solo allora le parti interessate potranno avere fiducia nell’adozione della tecnologia. Se ogni azione viene registrata e gestibile, i team possono vedere cosa è successo, identificare i problemi e comprendere meglio il motivo per cui si sono verificati gli eventi.

Sarrafi ha continuato: “Questa visibilità, combinata con la supervisione umana dove conta, trasforma gli agenti di intelligenza artificiale da componenti imperscrutabili in sistemi che possono essere ispezionati, riprodotti e controllati. Consente inoltre indagini e correzioni rapide quando sorgono problemi, il che aumenta la fiducia tra gli operatori, i team di rischio e gli assicuratori.”

Il progetto di Deloitte

La strategia di Deloitte per una governance sicura degli agenti IA stabilisce limiti definiti per le decisioni che i sistemi ad agenti possono prendere. Ad esempio, potrebbero operare con autonomia a più livelli, in cui gli agenti possono solo visualizzare informazioni o offrire suggerimenti. Da qui, possono essere autorizzati a intraprendere azioni limitate, ma con l’approvazione umana. Una volta che avranno dimostrato di essere affidabili nelle aree a basso rischio, potranno essere autorizzati ad agire automaticamente.

quello di Deloitte”Progetti di intelligenza artificiale informatica” suggeriscono livelli di governance e incorporano politiche e roadmap di capacità di conformità nei controlli organizzativi. In definitiva, le strutture di governance che tengono traccia dell’uso e dei rischi dell’IA e incorporano la supervisione nelle operazioni quotidiane sono importanti per un utilizzo sicuro dell’IA da parte degli agenti.

Preparare la forza lavoro con la formazione è un altro aspetto di una governance sicura. Deloitte consiglia di formare i dipendenti su ciò che non dovrebbero condividere con i sistemi di intelligenza artificiale, cosa fare se gli agenti vanno fuori strada e come individuare comportamenti insoliti e potenzialmente pericolosi. Se i dipendenti non riescono a comprendere come funzionano i sistemi di intelligenza artificiale e i loro potenziali rischi, potrebbero indebolire i controlli di sicurezza, anche se involontariamente.

Governance e controllo robusti, insieme all’alfabetizzazione condivisa, sono fondamentali per l’implementazione e il funzionamento sicuri degli agenti di intelligenza artificiale, consentendo prestazioni sicure, conformi e responsabili negli ambienti del mondo reale

(Fonte immagine: “Global Hawk, il nuovo aereo telecomandato della NASA” di NASA Goddard Photo and Video è concesso in licenza con CC BY 2.0.)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *