Conformità al nuovo standard ETSI per la sicurezza dell’intelligenza artificiale

 | Intelligenza-Artificiale

IL ETSI Lo standard EN 304 223 introduce requisiti di sicurezza di base per l’intelligenza artificiale che le imprese devono integrare nei quadri di governance.

Poiché le organizzazioni integrano l’apprendimento automatico nelle loro operazioni principali, questa norma europea (EN) stabilisce disposizioni concrete per proteggere modelli e sistemi di intelligenza artificiale. Si tratta del primo standard europeo applicabile a livello globale per la sicurezza informatica dell’intelligenza artificiale, avendo ottenuto l’approvazione formale da parte delle organizzazioni nazionali di standardizzazione per rafforzare la sua autorità sui mercati internazionali.

Lo standard funge da punto di riferimento necessario la legge dell’UE sull’IA. Affronta la realtà che i sistemi di intelligenza artificiale presentano rischi specifici – come la suscettibilità all’avvelenamento dei dati, l’offuscamento dei modelli e l’iniezione indiretta tempestiva – che spesso le tradizionali misure di sicurezza del software non riescono a cogliere. Lo standard copre le reti neurali profonde e l’intelligenza artificiale generativa fino ai sistemi predittivi di base, escludendo esplicitamente solo quelli utilizzati strettamente per la ricerca accademica.

Lo standard ETSI chiarisce la catena di responsabilità per la sicurezza dell’IA

Un ostacolo persistente nell’adozione dell’intelligenza artificiale aziendale è determinare chi detiene il rischio. Lo standard ETSI risolve questo problema definendo tre ruoli tecnici principali: sviluppatori, operatori di sistema e custodi dei dati.

Per molte aziende questi confini sono sfumati. UN servizi finanziari l’azienda che mette a punto un modello open source per il rilevamento delle frodi conta sia come sviluppatore che come operatore di sistema. Questo doppio status implica obblighi rigorosi, che impongono all’azienda di proteggere l’infrastruttura di implementazione documentando al tempo stesso la provenienza dei dati di addestramento e il controllo della progettazione del modello.

L’inclusione dei “custodi dei dati” come gruppo di parti interessate distinto ha un impatto diretto sui Chief Data and Analytics Officer (CDAO). Queste entità controllano le autorizzazioni e l’integrità dei dati, un ruolo che ora comporta esplicite responsabilità di sicurezza. I custodi devono garantire che l’utilizzo previsto di un sistema sia in linea con la sensibilità dei dati di addestramento, inserendo di fatto un guardiano della sicurezza all’interno del flusso di lavoro di gestione dei dati.

Lo standard di intelligenza artificiale dell’ETSI chiarisce che la sicurezza non può essere un ripensamento aggiunto in fase di implementazione. Durante la fase di progettazione, le organizzazioni devono condurre una modellazione delle minacce che affronti gli attacchi nativi dell’intelligenza artificiale, come l’inferenza dell’appartenenza e l’offuscamento del modello.

Una disposizione richiede sviluppatori limitare la funzionalità per ridurre la superficie di attacco. Ad esempio, se un sistema utilizza un modello multimodale ma richiede solo l’elaborazione del testo, le modalità inutilizzate (come l’elaborazione di immagini o audio) rappresentano un rischio che deve essere gestito. Questo requisito costringe i leader tecnici a riconsiderare la pratica comune di implementare modelli di fondazione massicci e generici laddove sarebbe sufficiente un modello più piccolo e più specializzato.

Il documento impone inoltre una rigorosa gestione patrimoniale. Gli sviluppatori e gli operatori di sistema devono mantenere un inventario completo delle risorse, comprese le interdipendenze e la connettività. Ciò supporta il rilevamento dell’IA ombra; I leader IT non possono proteggere modelli di cui non conoscono l’esistenza. Lo standard richiede inoltre la creazione di piani di disaster recovery specifici su misura per gli attacchi IA, garantendo che uno “stato buono noto” possa essere ripristinato se un modello viene compromesso.

La sicurezza della catena di fornitura rappresenta un punto di attrito immediato per le aziende che si affidano a fornitori di terze parti o repository open source. Lo standard ETSI richiede che se un operatore di sistema sceglie di utilizzare modelli o componenti di intelligenza artificiale non ben documentati, deve giustificare tale decisione e documentare i rischi per la sicurezza associati.

In pratica, i team di procurement non possono più accettare soluzioni “scatola nera”. Agli sviluppatori è richiesto di fornire hash crittografici per i componenti del modello per verificarne l’autenticità. Laddove i dati di addestramento provengono da fonti pubbliche (una pratica comune per i modelli linguistici di grandi dimensioni), gli sviluppatori devono documentare l’URL di origine e il timestamp di acquisizione. Questa traccia di controllo è necessaria per le indagini successive all’incidente, in particolare quando si tenta di identificare se un modello è stato soggetto a avvelenamento dei dati durante la fase di addestramento.

Se un’azienda offre un’API a clienti esterni, deve applicare controlli progettati per mitigare gli attacchi incentrati sull’intelligenza artificiale, come la limitazione della velocità per impedire agli avversari di decodificare il modello o difese schiaccianti per iniettare dati non autorizzati.

L’approccio del ciclo di vita si estende alla fase di manutenzione, in cui lo standard tratta gli aggiornamenti principali – come la riqualificazione su nuovi dati – come l’implementazione di una nuova versione. Secondo lo standard ETSI AI, ciò fa scattare l’esigenza di rinnovare i test e la valutazione della sicurezza.

È inoltre formalizzato il monitoraggio continuo. Gli operatori di sistema devono analizzare i log non solo per verificare i tempi di attività, ma per rilevare la “deriva dei dati” o cambiamenti graduali nel comportamento che potrebbero indicare una violazione della sicurezza. Ciò sposta il monitoraggio dell’intelligenza artificiale da una metrica delle prestazioni a una disciplina di sicurezza.

Lo standard affronta anche la fase di “End of Life”. Quando un modello viene disattivato o trasferito, le organizzazioni devono coinvolgere i custodi dei dati per garantire l’eliminazione sicura dei dati e dei dettagli di configurazione. Questa disposizione impedisce la fuga di proprietà intellettuale sensibile o di dati di formazione attraverso hardware scartato o istanze cloud dimenticate.

Supervisione esecutiva e governance

La conformità alla norma ETSI EN 304 223 richiede una revisione dei programmi di formazione sulla sicurezza informatica esistenti. Lo standard impone che la formazione sia adattata a ruoli specifici, garantendo che gli sviluppatori comprendano la codifica sicura per l’intelligenza artificiale mentre il personale generale rimane consapevole delle minacce come l’ingegneria sociale tramite gli output dell’intelligenza artificiale.

“ETSI EN 304 223 rappresenta un importante passo avanti nella creazione di una base comune e rigorosa per la protezione dei sistemi di intelligenza artificiale”, ha affermato Scott Cadzow, presidente del comitato tecnico dell’ETSI per la protezione dell’intelligenza artificiale.

“In un momento in cui l’intelligenza artificiale viene sempre più integrata in servizi e infrastrutture critici, la disponibilità di linee guida chiare e pratiche che riflettano sia la complessità di queste tecnologie sia le realtà della distribuzione non possono essere sottovalutate. Il lavoro svolto per fornire questo quadro è il risultato di un’ampia collaborazione e significa che le organizzazioni possono avere piena fiducia nei sistemi di intelligenza artificiale che sono resilienti, affidabili e sicuri fin dalla progettazione.”

L’implementazione di queste linee di base nello standard di sicurezza AI dell’ETSI fornisce una struttura per un’innovazione più sicura. Applicando audit trail documentati, chiare definizioni di ruolo e trasparenza della catena di fornitura, le aziende possono mitigare i rischi associati all’adozione dell’intelligenza artificiale, stabilendo al tempo stesso una posizione difendibile per futuri audit normativi.

Un prossimo rapporto tecnico (ETSI TR 104 159) applicherà questi principi specificamente all’intelligenza artificiale generativa, affrontando questioni come i deepfake e la disinformazione.

Vedi anche: Allister Frost: Affrontare l’ansia della forza lavoro per il successo dell’integrazione dell’intelligenza artificiale

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *