I benchmark di sicurezza dell’intelligenza artificiale sono in ritardo

 | Intelligenza-Artificiale

L’ipotesi secondo cui gli Stati Uniti detengono un vantaggio duraturo nelle prestazioni dei modelli di intelligenza artificiale non è ben supportata dai dati, e questo è solo uno dei risultati scomodi in Rapporto sull’indice AI 2026 della Stanford Universitypubblicato questa settimana.

Il rapporto, prodotto dall’Institute for Human-Centred Artificial Intelligence di Stanford, è una valutazione annuale di 423 pagine sulla posizione dell’intelligenza artificiale. Copre i risultati della ricerca, le prestazioni dei modelli, i flussi di investimento, il sentimento pubblico e l’intelligenza artificiale responsabile. I risultati principali sono sorprendenti.

Ma gli approfondimenti più consequenziali si trovano nelle sezioni che la maggior parte della copertura ha saltato, in particolare sulla sicurezza dell’intelligenza artificiale, dove il divario tra ciò che i modelli possono fare e il rigore con cui vengono valutati per i danni non si è chiuso ma si è ampliato.

Detto questo, tre risultati meritano più attenzione di quella che stanno ricevendo.

Il divario prestazionale del modello USA-Cina si è effettivamente colmato

Il quadro secondo cui gli Stati Uniti guidano la Cina nello sviluppo dell’intelligenza artificiale deve essere aggiornato. Secondo il rapporto, Modelli statunitensi e cinesi hanno scambiato la posizione di massima performance più volte dall’inizio del 2025. Nel febbraio 2025, DeepSeek-R1 ha eguagliato brevemente il modello statunitense di punta. A marzo 2026, il modello di punta di Anthropic era in vantaggio solo del 2,7%.

Gli Stati Uniti producono ancora più modelli di intelligenza artificiale di alto livello – 50 modelli nel 2025 contro i 30 della Cina – e mantengono brevetti di maggiore impatto. Ma la Cina ora è leader in termini di volume di pubblicazioni, quota di citazioni e concessioni di brevetti. La quota della Cina tra i 100 documenti più citati sull’intelligenza artificiale è cresciuta da 33 nel 2021 a 41 nel 2024. La Corea del Sud, in particolare, è leader mondiale nei brevetti sull’intelligenza artificiale pro capite.

L’implicazione pratica è che l’ipotesi di un vantaggio tecnologico duraturo degli Stati Uniti nelle prestazioni del modello di intelligenza artificiale non è ben supportata dai dati. Il divario che esisteva due anni fa si è ridotto a un margine che si sposta con ogni importante rilascio di modello.

Esiste un’ulteriore vulnerabilità strutturale identificata dal rapporto. Gli Stati Uniti ospiti 5.427 data center – più di dieci volte qualsiasi altro Paese – ma una singola azienda, TSMC, fabbrica al loro interno quasi tutti i principali chip AI. L’intera catena di fornitura globale dell’hardware AI passa attraverso una fonderia a Taiwan, anche se un’espansione di TSMC negli Stati Uniti ha iniziato ad operare nel 2025.

Il benchmarking sulla sicurezza dell’intelligenza artificiale non sta tenendo il passo e i numeri lo dimostrano

Quasi tutti gli sviluppatori di modelli di frontiera riportano i risultati sui benchmark di abilità. Lo stesso non vale per parametri di riferimento per l’IA responsabilee l’Indice 2026 documenta il divario con una certa precisione.

La tabella di riferimento del rapporto per la sicurezza e l’IA responsabile mostra che la maggior parte delle voci sono semplicemente vuote. Solo Claude Opus 4.5 riporta i risultati su più di due dei benchmark di intelligenza artificiale responsabile monitorati. Solo GPT-5.2 segnala StrongREJECT. Tra i benchmark che misurano l’equità, la sicurezza e l’azione umana, la maggior parte dei modelli di frontiera non riporta nulla.

I parametri di riferimento delle capacità sono riportati in modo coerente nei modelli di frontiera. I parametri di riferimento dell’IA responsabile, che riguardano sicurezza, equità e fattualità, sono in gran parte assenti. Fonte: Rapporto sull’indice AI 2026 di Stanford HAI

Ciò non significa che Frontier Labs non stia svolgendo alcun lavoro di sicurezza interna. Il rapporto riconosce che si verificano il red-teaming e i test di allineamento, ma che “questi sforzi vengono raramente divulgati utilizzando una serie di parametri di riferimento comuni e comparabili esternamente”. L’effetto è che il confronto esterno nelle dimensioni della sicurezza dell’IA è effettivamente impossibile per la maggior parte dei modelli.

Secondo l’AI Incident Database, gli incidenti documentati di IA sono saliti a 362 nel 2025, rispetto ai 233 del 2024. L’AI Incidents and Hazards Monitor dell’OCSE, che utilizza un processo automatizzato più ampio, ha registrato un picco di 435 incidenti mensili nel gennaio 2026, con una media mobile a sei mesi di 326.

Gli incidenti documentati di IA sono saliti a 362 nel 2025, rispetto ai 233 dell’anno precedente e meno di 100 all’anno prima del 2022. Fonte: AI Incident Database (AIID), tramite Stanford HAI 2026 AI Index Report

La risposta della governance a livello organizzativo fatica a eguagliarla. Secondo un sondaggio condotto da AI Index e McKinsey, la percentuale di organizzazioni che valutano la propria risposta agli incidenti IA come “eccellente” è scesa dal 28% nel 2024 al 18% nel 2025. Anche quelle che hanno segnalato risposte “buone” sono diminuite, dal 39% al 24%. Nel frattempo, la quota che ha subito da tre a cinque incidenti è aumentata dal 30% al 50%.

Il rapporto identifica anche un problema strutturale nello stesso miglioramento responsabile dell’IA: i guadagni in una dimensione tendono a ridurre le prestazioni in un’altra. Ad esempio, migliorare la sicurezza può compromettere la precisione o migliorare la privacy può ridurre l’equità. Non esiste un quadro stabilito per la gestione di tali compromessi e, in diversi aspetti, tra cui l’equità e la spiegabilità, non esistono ancora i dati standardizzati necessari per monitorare i progressi nel tempo.

L’ansia del pubblico aumenta con l’adozione e il divario tra pubblico ed esperti

A livello globale, il 59% delle persone intervistate afferma che i vantaggi dell’intelligenza artificiale superano i suoi svantaggi, rispetto al 55% nel 2024. Allo stesso tempo, il 52% afferma che i prodotti e i servizi dell’intelligenza artificiale li rendono nervosi, con un aumento di due punti percentuali in un anno. Entrambi i dati si stanno muovendo verso l’alto contemporaneamente, il che riflette un pubblico che utilizza maggiormente l’intelligenza artificiale mentre diventa più incerto su dove porterà.

Il divario tra esperti e pubblico sugli effetti occupazionali dell’IA è particolarmente netto. Secondo il rapporto, il 73% degli esperti di IA si aspetta che l’IA abbia un impatto positivo sul modo in cui le persone svolgono il proprio lavoro, rispetto solo al 23% del pubblico in generale: un divario di 50 punti. Sull’economia il divario è di 48 punti (il 69% degli esperti è positivo contro il 21% del pubblico). Per quanto riguarda l’assistenza medica, gli esperti sono decisamente più ottimisti (84%), contro il 44% del pubblico.

Queste lacune sono importanti perché la fiducia del pubblico determina i risultati normativi e i risultati normativi determinano il modo in cui l’intelligenza artificiale viene implementata. Riguardo a questo aspetto, il rapporto segnala qualcosa di sorprendente: gli Stati Uniti hanno segnalato il livello di fiducia nel proprio governo nella regolamentazione responsabile dell’IA tra tutti i paesi esaminati, pari al 31%. La media globale è stata del 54%. I paesi del sud-est asiatico sono risultati i più fiduciosi, con Singapore all’81% e l’Indonesia al 76%.

A livello globale, l’UE gode di maggiore fiducia rispetto agli Stati Uniti o alla Cina per quanto riguarda la regolamentazione efficace dell’IA. Tra i 25 paesi nel 2025 del Pew Research Center sondaggiouna media del 53% si fida dell’UE per la regolamentazione dell’intelligenza artificiale, rispetto al 37% degli Stati Uniti e al 27% della Cina.

Il rapporto chiude il capitolo dedicato all’opinione pubblica sottolineando che i paesi del sud-est asiatico rimangono tra i più ottimisti al mondo riguardo all’intelligenza artificiale. In Cina, Malesia, Tailandia, Indonesia e Singapore, oltre l’80% degli intervistati afferma che l’intelligenza artificiale cambierà profondamente le loro vite nei prossimi tre-cinque anni. La Malesia ha registrato l’aumento maggiore in questa prospettiva dal 2024 al 2025.

Vedi anche: IBM: in che modo una solida governance dell’intelligenza artificiale protegge i margini aziendali

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *