Lo ha pubblicato il Ministero del Tesoro americano diversi documenti progettato per il settore dei servizi finanziari statunitense che suggerisce un approccio strutturato alla gestione dei rischi dell’IA nelle operazioni e nelle politiche (vedere la sottovoce “Risorse e download” nella parte inferiore del collegamento). Il CRI Financial Services AI Risk Management Framework (FS AI RMF) viene fornito con a Guida (.docx) che fornisce i dettagli del quadro, sviluppato da una collaborazione tra più di 100 istituzioni finanziarie e organizzazioni di settore, con il contributo di regolatori e organismi tecnici.
L’obiettivo di FS AI RMF è aiutare le istituzioni finanziarie a identificare, valutare, gestire e governare i rischi associati ai sistemi di intelligenza artificiale e consentire alle aziende di continuare ad adottare le tecnologie di intelligenza artificiale in modo responsabile.
Quadro settoriale
I sistemi di intelligenza artificiale introducono rischi che i quadri di governance tecnologica esistenti non affrontano. I rischi includono bias algoritmici, trasparenza limitata nei processi decisionali, vulnerabilità informatiche e dipendenze complesse tra sistemi e dati. Gli LLM creano preoccupazioni perché il loro comportamento può essere difficile da interpretare o prevedere. A differenza del software tradizionale, che è deterministico, l’output di un’intelligenza artificiale varia a seconda del contesto.
Le istituzioni finanziarie operano già in base ad un’ampia regolamentazione ed esiste una serie di linee guida generali come il NIST AI Risk Management Framework. Tuttavia, l’applicazione di quadri generali alle operazioni delle istituzioni finanziarie manca dei dettagli che riflettono le pratiche del settore e le aspettative normative. L’FS AI RMF viene posizionato come un’estensione del quadro NIST, con ulteriori controlli specifici del settore e linee guida pratiche di implementazione nelle sue pagine.
La Guida spiega come le aziende possono valutare la loro attuale maturità in termini di intelligenza artificiale e implementare controlli per limitare i rischi. Il suo obiettivo è promuovere pratiche di intelligenza artificiale coerenti e responsabili e sostenere l’innovazione nel settore.
Struttura centrale
L’AI RMF di FS collega la governance dell’IA con processi più ampi di governance, rischio e conformità che già interessano le istituzioni finanziarie.
Il framework contiene quattro componenti principali. Il primo è un questionario sulla fase di adozione dell’intelligenza artificiale che consente alle organizzazioni di determinare la maturità del loro utilizzo dell’intelligenza artificiale. La seconda è una matrice di rischio e controllo, che contiene una serie di dichiarazioni di rischio e obiettivi di controllo in linea con le fasi di adozione. La Guida spiega come applicare il quadro normativo, mentre una guida di riferimento separata per gli obiettivi di controllo fornisce esempi di controlli e prove a sostegno.
Il quadro definisce un totale di 230 obiettivi di controllo organizzati secondo quattro funzioni adattate dal più ampio quadro di gestione del rischio AI del NIST: governare, mappare, misurare e gestire. Ciascuna funzione contiene categorie e sottocategorie che descrivono gli elementi di un’efficace gestione e governance del rischio IA.
Valutare la maturità dell’IA
Il questionario sulla fase di adozione determina la misura in cui un’organizzazione utilizza l’intelligenza artificiale. Alcune aziende, ad esempio, si affidano a modelli predittivi tradizionali in applicazioni limitate, mentre altre utilizzano l’intelligenza artificiale nei processi aziendali principali; altri utilizzano l’intelligenza artificiale solo nei ruoli a contatto con i clienti.
Il questionario aiuta le organizzazioni a determinare dove si collocano attualmente nello spettro di utilizzo dell’IA, valutando fattori come l’impatto dell’IA sul business, le disposizioni di governance, i modelli di implementazione, l’uso di fornitori di IA di terze parti, gli obiettivi organizzativi e la sensibilità dei dati.
Sulla base di questa valutazione, le organizzazioni vengono classificate in quattro fasi di adozione dell’IA:
- fase iniziale: organizzazioni che hanno poca o nessuna implementazione operativa dell’IA. L’intelligenza artificiale potrebbe essere presa in considerazione ma non è incorporata,
- fase minima: uso limitato dell’IA in aree a basso rischio o sistemi isolati.
- fase evolutiva: organizzazioni che utilizzano sistemi di intelligenza artificiale più complessi, comprese applicazioni che coinvolgono dati sensibili o servizi esterni.
- fase integrata: in cui l’intelligenza artificiale svolge un ruolo significativo nelle operazioni aziendali e nel processo decisionale.
Queste fasi aiutano le istituzioni a concentrare i propri sforzi su controlli adeguati al loro livello di maturità. Un’azienda in una fase iniziale non ha bisogno di implementare immediatamente tutti i controlli, ma man mano che l’intelligenza artificiale diventa più integrata, il quadro introduce controlli aggiuntivi per affrontare i crescenti livelli di rischio.
Rischio e controllo
Gli obiettivi di controllo per ciascuna fase di adozione dell’IA riguardano la governance e argomenti operativi, tra cui la gestione della qualità dei dati, il monitoraggio dell’equità e dei pregiudizi, i controlli della sicurezza informatica, la trasparenza dei processi decisionali dell’IA e la resilienza operativa.
La Guida fornisce esempi di possibili controlli e tipi di prove che le istituzioni possono utilizzare per dimostrare la propria conformità. Ciascuna azienda deve determinare i controlli più adatti.
Il quadro raccomanda di mantenere procedure di risposta agli incidenti specifiche per i sistemi di intelligenza artificiale e di creare un archivio centrale per il monitoraggio degli incidenti di intelligenza artificiale, processi che aiuteranno le organizzazioni a rilevare i guasti e a migliorare la governance nel tempo.
IA affidabile
Il quadro incorpora principi per un’IA affidabile definiti come validità e affidabilità, sicurezza, protezione e resilienza, responsabilità, trasparenza, spiegabilità, protezione della privacy ed equità. Questi forniscono una base per valutare i sistemi di intelligenza artificiale lungo il loro intero ciclo di vita. In termini semplici, gli istituti finanziari devono garantire che i risultati dell’intelligenza artificiale siano affidabili, che i sistemi siano protetti dalle minacce informatiche e che le decisioni possano essere spiegate quando colpiscono i clienti o hanno rilevanza normativa.
Implicazioni strategiche
Per i dirigenti senior delle istituzioni finanziarie di qualsiasi nazione, FS AI RMF offre una guida per integrare l’intelligenza artificiale nei quadri di gestione del rischio esistenti. Afferma la necessità di coordinamento tra le diverse funzioni aziendali dell’organizzazione. I team tecnologici, i responsabili del rischio, gli specialisti della conformità e le unità aziendali devono tutti partecipare al processo di governance dell’IA.
Adottare l’intelligenza artificiale senza rafforzare le strutture di governance può esporre le istituzioni a fallimenti operativi, controlli normativi o danni alla reputazione. Al contrario, le aziende che creano processi di governance chiari saranno più fiduciose nell’implementazione di sistemi di intelligenza artificiale.
La Guida inquadra la gestione del rischio legata all’IA come un’entità in evoluzione. Con lo sviluppo delle tecnologie di intelligenza artificiale e il cambiamento delle aspettative normative, gli istituti dovranno aggiornare di conseguenza le loro pratiche di governance e le valutazioni del rischio.
Per i decisori del settore finanziario, il messaggio è che l’adozione dell’intelligenza artificiale deve procedere di pari passo con la governance del rischio. Un quadro strutturato come FS AI RMF fornisce un linguaggio e un metodo comuni per gestire l’evoluzione.
(Fonte immagine: “Law Books” di seychelles88 è concesso in licenza con CC BY-NC-SA 2.0.)
Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com

