Come prepararsi e rimediare a un incidente del sistema IA

 | Intelligenza-Artificiale

Nonostante tutte le possibilità che l’intelligenza artificiale ci offre, c’è sempre la possibilità che la tecnologia non funzioni correttamente o venga compromessa. In caso di crisi del sistema IA, nuova ricerca di ISACA ha scoperto che la maggior parte delle organizzazioni intervistate non è in grado di spiegare la rapidità con cui potrebbero fermare un’emergenza del sistema di intelligenza artificiale, o addirittura di riferire su cosa abbia causato il problema.

Secondo Il rapporto dell’ISACAIl 59% dei professionisti della fiducia digitale non comprende la rapidità con cui la propria organizzazione potrebbe interrompere e arrestare un sistema di intelligenza artificiale durante un incidente di sicurezza. Solo il 21% ha riferito che potrebbe intervenire in modo significativo in mezz’ora. Ciò indica un panorama in cui i sistemi di intelligenza artificiale corrotti possono continuare a funzionare senza controllo, con il rischio di danni irreversibili.

Ali Sarrafi, CEO e fondatore di Kovantuna piattaforma aziendale autonoma, ha affermato: “I risultati di ISACA evidenziano un importante problema strutturale nel modo in cui le organizzazioni stanno implementando l’intelligenza artificiale. I sistemi vengono incorporati in flussi di lavoro critici senza il livello di governance necessario per supervisionare e verificare le loro azioni. Se un’azienda non può fermare rapidamente un sistema di intelligenza artificiale, spiegare il suo comportamento o persino identificare chi deve essere ritenuto responsabile, l’azienda non ha il controllo di quel sistema.”

Fallimenti e rischi dell’IA

Nel complesso, solo il 42% degli intervistati ha espresso fiducia nella capacità della propria organizzazione di analizzare e chiarire gravi incidenti legati all’intelligenza artificiale, che portano così a possibili guasti operativi e rischi per la sicurezza. Inoltre, senza spiegare questi incidenti alle autorità di regolamentazione e alla leadership, le aziende potrebbero dover affrontare sanzioni legali e reazioni pubbliche.

È necessaria un’analisi adeguata per imparare dagli errori. Senza una comprensione chiara, la probabilità che si ripetano incidenti non fa che aumentare. È importante gestire l’IA in modo responsabile, con un’efficace governance dell’IA, ma i risultati dell’ISACA indicano che spesso questo aspetto manca.

La responsabilità è un’altra area confusa con il 20% che dichiara di non sapere chi sarebbe responsabile se un sistema di intelligenza artificiale causasse danni. Solo il 38% ha individuato nel Consiglio o in un dirigente la responsabilità ultima.

Sarrafi ha osservato che rallentare l’adozione dell’IA non è la risposta; è invece fondamentale ripensare il modo in cui viene gestito. “I sistemi di intelligenza artificiale devono essere inseriti in un livello di gestione strutturato che li tratti come dipendenti digitali, con una proprietà chiara, percorsi di escalation definiti e la possibilità di essere messi in pausa o ignorati istantaneamente quando vengono superate le soglie di rischio. In questo modo, gli agenti smettono di essere robot misteriosi e diventano sistemi ispezionabili e di cui ci si può fidare. Man mano che l’intelligenza artificiale diventa più profondamente integrata nelle funzioni aziendali principali, la governance non può essere un ripensamento. Deve essere integrata nell’architettura fin dal primo giorno, con visibilità e controllo progettati a ogni livello. Le organizzazioni che riescono a farlo bene non si ridurranno rischio, saranno loro a poter scalare con sicurezza l’intelligenza artificiale nel business”.

C’è tuttavia una certa rassicurazione, con il 40% degli intervistati che afferma che gli esseri umani approvano quasi tutte le azioni dell’IA prima di essere implementate, e un ulteriore 26% valuta i risultati dell’IA. Detto questo, senza una migliore infrastruttura di governance, è improbabile che la supervisione umana sia sufficiente per identificare e risolvere i problemi prima che si intensifichino.

I risultati dell’ISACA evidenziano un importante problema strutturale nel modo in cui l’IA viene utilizzata in diversi settori. Poiché oltre un terzo delle organizzazioni non richiedono ai propri dipendenti di rivelare dove e quando l’intelligenza artificiale viene utilizzata nei prodotti lavorativi, aumenta il rischio di punti ciechi.

Nonostante normative più rigorose che rendano la leadership senior più responsabile, le organizzazioni non riescono a implementare e utilizzare l’intelligenza artificiale in modo sicuro ed efficace. Sembra che molte aziende considerino il rischio legato all’intelligenza artificiale come un problema tecnico, non come qualcosa che richiede un’attenta gestione da parte dell’intera organizzazione.

È essenziale cambiare il modo in cui vengono gestite l’integrazione e le azioni dell’IA. Senza un’adeguata governance e responsabilità, le aziende non hanno il controllo dei propri sistemi di intelligenza artificiale. Senza controllo, anche gli errori più piccoli potrebbero causare danni finanziari e reputazionali da cui molte aziende potrebbero non riprendersi.

(Immagine di Fonderia Co da Pixabay)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *