Esperti di spicco provenienti da 30 nazioni in tutto il mondo forniranno consulenza su un rapporto storico che valuterà le capacità e i rischi dei sistemi di intelligenza artificiale.

Il rapporto scientifico internazionale sulla sicurezza avanzata dell’IA mira a riunire la migliore ricerca scientifica sulla sicurezza dell’IA per informare i politici e le discussioni future sullo sviluppo sicuro della tecnologia dell’IA. Il rapporto si basa sull’eredità del vertice sulla sicurezza dell’intelligenza artificiale del Regno Unito dello scorso novembre, in cui i paesi hanno firmato la dichiarazione di Bletchley accettando di collaborare sulle questioni relative alla sicurezza dell’intelligenza artificiale.

È stato presentato un imponente gruppo consultivo di esperti composto da 32 figure internazionali di spicco, tra cui responsabili tecnologici, inviati delle Nazioni Unite e principali consiglieri scientifici nazionali. Il gruppo comprende esperti come il dottor Hiroaki Kitano, CTO di Sony in Giappone, Amandeep Gill, inviato delle Nazioni Unite per la tecnologia, e Dame Angela McLean, capo consigliere scientifico del Regno Unito.

Questo team di talento globale svolgerà un ruolo cruciale fornendo consulenza sullo sviluppo e sui contenuti del rapporto per garantire che valuti in modo completo e obiettivo le capacità e i rischi dell’intelligenza artificiale avanzata. Il loro contributo regolare durante tutto il processo di stesura contribuirà a creare un ampio consenso sulla ricerca vitale sulla sicurezza globale dell’IA.

I primi risultati del rapporto dovrebbero essere pubblicati prima del vertice sulla sicurezza dell’intelligenza artificiale della Corea del Sud questa primavera. Una seconda pubblicazione più completa coinciderà poi con il vertice francese entro la fine dell’anno, contribuendo a informare le discussioni in entrambi gli eventi.

Il rapporto internazionale seguirà a carta pubblicato dal Regno Unito lo scorso anno, che includeva informazioni declassificate provenienti dai servizi di intelligence e metteva in evidenza i rischi associati all’IA di frontiera.

Michelle Donelan, Segretario di Stato britannico per la scienza, l’innovazione e la tecnologia, ha dichiarato: “Il rapporto scientifico internazionale sulla sicurezza avanzata dell’IA sarà una pubblicazione fondamentale, che riunirà sotto lo stesso tetto la migliore ricerca scientifica sui rischi e le capacità dello sviluppo dell’IA di frontiera.

“Il rapporto è parte dell’eredità duratura del vertice sulla sicurezza dell’intelligenza artificiale di novembre e sono lieto che i paesi che hanno aderito alla Dichiarazione di Bletchley si uniranno a noi nel suo sviluppo.”

Il professor Yoshua Bengio, ricercatore pioniere dell’intelligenza artificiale del Quebec Istituto Milàha affermato che la pubblicazione “sarà uno strumento importante per contribuire a informare le discussioni ai vertici sulla sicurezza dell’intelligenza artificiale che si terranno dalla Repubblica di Corea e dalla Francia entro la fine dell’anno”.

I principi che guidano lo sviluppo del rapporto – ispirato alle valutazioni dell’IPCC sui cambiamenti climatici – sono la completezza, l’obiettività, la trasparenza e la valutazione scientifica. Questo quadro mira a garantire una valutazione approfondita ed equilibrata dei rischi dell’IA.

È possibile trovare un elenco di tutti i paesi partecipanti e dei loro rappresentanti designati Qui.

(Fotografato da Ricardo Gómez Angel SU Unsplash)

Guarda anche: Regno Unito e Canada firmano un accordo sull’elaborazione dell’intelligenza artificiale

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale E Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, vertice sulla sicurezza ai, intelligenza artificiale, governo, rapporto, ricerca, sicurezza

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *