IL Centro per la resilienza a lungo termine (CLTR) ha chiesto un sistema completo di segnalazione degli incidenti per colmare urgentemente una lacuna critica nei piani di regolamentazione dell’IA.

Secondo il CLTR, l’intelligenza artificiale ha una storia di fallimenti in modi inaspettati, con oltre 10.000 incidenti di sicurezza registrati dai notiziari nei sistemi di intelligenza artificiale implementati dal 2014. Man mano che l’intelligenza artificiale diventa sempre più integrata nella società, è probabile che la frequenza e l’impatto di questi incidenti aumentino. .

Il think tank sostiene che un regime di segnalazione degli incidenti ben funzionante è essenziale per un’efficace regolamentazione dell’intelligenza artificiale, tracciando parallelismi con settori critici per la sicurezza come l’aviazione e la medicina. Questo punto di vista è sostenuto da un ampio consenso di esperti, nonché dei governi statunitense e cinese e dell’Unione Europea.

Il rapporto delinea tre vantaggi chiave derivanti dall’implementazione di un sistema di segnalazione degli incidenti:

  1. Monitoraggio dei rischi per la sicurezza dell’IA nel mondo reale per informare gli adeguamenti normativi
  2. Coordinare risposte rapide agli incidenti più gravi e indagarne le cause profonde
  3. Identificare i primi avvertimenti di potenziali danni futuri su larga scala

Attualmente, la regolamentazione dell’IA del Regno Unito non dispone di un quadro efficace per la segnalazione degli incidenti. Questo divario lascia il Dipartimento per la Scienza, l'Innovazione e la Tecnologia (DSIT) senza visibilità su vari incidenti critici, tra cui:

  • Problemi con modelli di fondazione altamente capaci
  • Incidenti legati all'uso dell'intelligenza artificiale da parte del governo britannico nei servizi pubblici
  • Uso improprio dei sistemi di intelligenza artificiale per scopi dannosi
  • Danni causati da compagni, tutor e terapisti dell'IA

Il CLTR avverte che senza un adeguato sistema di segnalazione degli incidenti, DSIT potrebbe venire a conoscenza di nuovi danni attraverso i notiziari piuttosto che attraverso processi di segnalazione consolidati.

Per colmare questa lacuna, il think tank raccomanda tre passi immediati al governo del Regno Unito:

  1. Sistema di segnalazione degli incidenti governativi: Stabilire un sistema per segnalare incidenti derivanti dall’intelligenza artificiale utilizzata nei servizi pubblici. Questa può essere una semplice estensione di Standard di registrazione per trasparenza algoritmica (ATRS) per includere gli incidenti legati all'intelligenza artificiale del settore pubblico, alimentati da un ente governativo e potenzialmente condivisi con il pubblico per trasparenza.
  2. Coinvolgere regolatori ed esperti: Le autorità di regolamentazione della Commissione e si consultano con gli esperti per identificare le lacune più preoccupanti, garantendo una copertura efficace degli incidenti prioritari e comprendendo le esigenze delle parti interessate per un regime funzionale.
  3. Costruisci capacità DSIT: Sviluppare la capacità di DSIT di monitorare, indagare e rispondere agli incidenti, potenzialmente attraverso un database pilota degli incidenti AI. Ciò rientrerebbe nella funzione centrale di DSIT, inizialmente concentrandosi sulle lacune più urgenti ma eventualmente espandendosi per includere tutti i rapporti delle autorità di regolamentazione del Regno Unito.

Queste raccomandazioni mirano a rafforzare la capacità del governo di migliorare responsabilmente i servizi pubblici, garantire una copertura efficace degli incidenti prioritari e sviluppare l’infrastruttura necessaria per raccogliere e rispondere alle segnalazioni sugli incidenti di intelligenza artificiale.

Veera Siivonen, CCO e Partner presso Saidotha commentato:

“Questo rapporto del Centro per la resilienza a lungo termine arriva al momento opportuno. Mentre il Regno Unito si avvia verso le elezioni generali, la politica sull’intelligenza artificiale del prossimo governo sarà la pietra angolare della crescita economica. Tuttavia, ciò richiede precisione nel destreggiarsi tra regolamentazione e innovazione, fornendo barriere senza limitare il potenziale di sperimentazione del settore. Anche se l’implementazione di un sistema centralizzato di segnalazione degli incidenti per l’uso improprio e i malfunzionamenti dell’IA sarebbe un lodevole primo passo, ci sono molti altri passi da compiere.

Il prossimo governo del Regno Unito dovrebbe fornire certezza e comprensione alle imprese con chiari requisiti di governance, monitorando e mitigando al tempo stesso i rischi più probabili. Integrando una varietà di strategie di governance dell’IA con la segnalazione centralizzata degli incidenti, il Regno Unito può sfruttare il potenziale economico dell’IA, garantendo che avvantaggi la società e proteggendo al tempo stesso i processi democratici e la fiducia pubblica”.

Poiché l’intelligenza artificiale continua ad avanzare e a permeare vari aspetti della società, l’implementazione di un solido sistema di segnalazione degli incidenti potrebbe rivelarsi cruciale per mitigare i rischi e garantire lo sviluppo e l’implementazione sicuri delle tecnologie di intelligenza artificiale.

Guarda anche: Il capo di SoftBank: dimenticate AGI, ASI arriverà entro 10 anni

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, California e Londra. L'evento completo è co-localizzato con altri eventi leader tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, intelligenza artificiale, Centro per la resilienza a lungo termine, cltr, etica, governo, legale, regolamento, sicurezza, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *