IL pubblicazione della “Prima bozza di codice di condotta per l’IA per scopi generali” segna lo sforzo dell’UE di creare una guida normativa completa per i modelli di IA per scopi generali.
Lo sviluppo di questa bozza è stato uno sforzo collaborativo, che ha coinvolto il contributo di diversi settori tra cui l’industria, il mondo accademico e la società civile. L’iniziativa è stata guidata da quattro gruppi di lavoro specializzati, ciascuno dei quali si è occupato di aspetti specifici della governance dell’IA e della mitigazione del rischio:
- Gruppo di lavoro 1: Trasparenza e norme relative al diritto d'autore
- Gruppo di lavoro 2: Identificazione e valutazione del rischio sistemico
- Gruppo di lavoro 3: Attenuazione tecnica del rischio sistemico
- Gruppo di lavoro 4: Mitigazione del rischio di governance per il rischio sistemico
Il progetto è in linea con le leggi esistenti come la Carta dei diritti fondamentali dell’Unione europea. Tiene conto degli approcci internazionali, puntando alla proporzionalità rispetto ai rischi, e mira ad essere a prova di futuro contemplando i rapidi cambiamenti tecnologici.
Gli obiettivi chiave delineati nella bozza includono:
- Chiarire i metodi di conformità per i fornitori di modelli di IA generici
- Facilitare la comprensione lungo la catena del valore dell’intelligenza artificiale, garantendo la perfetta integrazione dei modelli di intelligenza artificiale nei prodotti a valle
- Garantire il rispetto della normativa dell'Unione in materia di diritto d'autore, in particolare per quanto riguarda l'uso di materiale protetto da diritto d'autore per la formazione di modelli
- Valutare e mitigare continuamente i rischi sistemici associati ai modelli di intelligenza artificiale
Riconoscere e mitigare i rischi sistemici
Una caratteristica fondamentale della bozza è la tassonomia dei rischi sistemici, che comprende tipi, natura e fonti di tali rischi. Il documento delinea varie minacce come i reati informatici, i rischi biologici, la perdita di controllo sui modelli di intelligenza artificiale autonomi e la disinformazione su larga scala. Riconoscendo la natura in continua evoluzione della tecnologia AI, la bozza riconosce che questa tassonomia avrà bisogno di aggiornamenti per rimanere rilevante.
Man mano che i modelli di intelligenza artificiale con rischi sistemici diventano più comuni, la bozza sottolinea la necessità di solidi quadri di sicurezza e protezione (SSF). Propone una gerarchia di misure, sottomisure e indicatori chiave di prestazione (KPI) per garantire un'adeguata identificazione, analisi e mitigazione del rischio durante tutto il ciclo di vita di un modello.
La bozza suggerisce che i fornitori stabiliscano processi per identificare e segnalare incidenti gravi associati ai loro modelli di intelligenza artificiale, offrendo valutazioni dettagliate e correzioni secondo necessità. Incoraggia inoltre la collaborazione con esperti indipendenti per la valutazione del rischio, in particolare per i modelli che presentano rischi sistemici significativi.
Assumere una posizione proattiva nei confronti degli orientamenti normativi sull’IA
IL HO attoentrato in vigore il 1° agosto 2024, impone che la versione finale del codice sia pronta entro il 1° maggio 2025. Questa iniziativa sottolinea la posizione proattiva dell'UE nei confronti della regolamentazione dell'IA, sottolineando la necessità di sicurezza, trasparenza e responsabilità dell'IA.
Mentre la bozza continua ad evolversi, i gruppi di lavoro invitano le parti interessate a partecipare attivamente al perfezionamento del documento. Il loro contributo collaborativo darà forma a un quadro normativo volto a salvaguardare l’innovazione proteggendo al tempo stesso la società dalle potenziali insidie della tecnologia IA.
Sebbene sia ancora in forma di bozza, il codice di condotta dell’UE per i modelli di IA di uso generale potrebbe stabilire un punto di riferimento per lo sviluppo e la diffusione responsabile dell’IA a livello globale. Affrontando questioni chiave come la trasparenza, la gestione del rischio e la conformità al diritto d’autore, il Codice mira a creare un ambiente normativo che promuova l’innovazione, sostenga i diritti fondamentali e garantisca un elevato livello di protezione dei consumatori.
Questa bozza è aperta per feedback scritto fino al 28 novembre 2024.
Vedi anche: Anthropic sollecita una regolamentazione dell’IA per evitare catastrofi
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com