Le sfide in materia di governance dell’IA Agentic ai sensi della legge sull’intelligenza artificiale dell’UE nel 2026

 | Intelligenza-Artificiale

È possibile adottare diverse misure per alleviare gli elevati livelli di rischio e, tra queste, quelle che meritano di essere prese in considerazione includono l’identità dell’agente, registri completi, controlli delle politiche, supervisione umana, revoca rapida, disponibilità di documentazione da parte dei fornitori e formulazione di prove da presentare alle autorità di regolamentazione.

Esistono diverse opzioni che i decisori possono prendere in considerazione per contribuire a creare il registro delle attività intraprese dai sistemi ad agenti. Ad esempio, un SDK Python (kit di sviluppo software), Asqav, può firmare crittograficamente l’azione di ciascun agente e collegare tutti i record a una catena di hash immutabile, il tipo di tecnica maggiormente associata alla tecnologia blockchain. Se qualcuno o qualcosa modifica o rimuove un record, la verifica della catena fallisce.

Per i team di governance, utilizzando un sistema di registrazione dettagliato, centralizzato e possibilmente crittografato per tutte le IA agentiche è una misura che fornisce dati ben oltre i log di testo sparsi prodotti dalle singole piattaforme software. Indipendentemente dai dettagli tecnici relativi alle modalità di creazione e conservazione dei record, i leader IT devono vedere esattamente dove, quando e come le istanze degli agenti agiscono all’interno dell’azienda.

Molte organizzazioni falliscono in questo primo passaggio nella registrazione di attività automatizzate e guidate dall’intelligenza artificiale. È necessario tenere un registro di ogni agente in funzione, con ciascuno identificato in modo univoco, oltre ai record delle sue capacità e delle autorizzazioni concesse. Questo “elenco delle risorse agenti” si collega perfettamente ai requisiti dell’articolo 9 della legge sull’intelligenza artificiale dell’UE, che afferma:

  • Articolo 9: Per le zone ad alto rischio, La gestione del rischio dell’IA deve essere un processo continuo e basato sull’evidenza integrati in ogni fase di implementazione (sviluppo, preparazione, produzione) ed essere costantemente rivisti.

Inoltre, i decisori devono essere consapevoli dell’articolo 13 della legge:

  • I sistemi di intelligenza artificiale ad alto rischio devono essere progettati in modo tale che coloro che li implementano possano comprendere l’output di un sistema. Così, un sistema di intelligenza artificiale di terze parti deve essere interpretabile dai suoi utenti (non un blob di codice opaco) e dovrebbe essere fornito con documentazione sufficiente per garantirne un utilizzo sicuro e legale.

Questo requisito significa che la scelta del modello e i suoi metodi di implementazione sono entrambi tecnici e normativo considerazioni.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *