L’UE presenta una bozza di linee guida normative per i modelli di IA

 | Intelligenza-Artificiale

IL pubblicazione della “Prima bozza di codice di condotta per l’IA per scopi generali” segna lo sforzo dell’UE di creare una guida normativa completa per i modelli di IA per scopi generali.

Lo sviluppo di questa bozza è stato uno sforzo collaborativo, che ha coinvolto il contributo di diversi settori tra cui l’industria, il mondo accademico e la società civile. L’iniziativa è stata guidata da quattro gruppi di lavoro specializzati, ciascuno dei quali si è occupato di aspetti specifici della governance dell’IA e della mitigazione del rischio:

  • Gruppo di lavoro 1: Trasparenza e norme relative al diritto d'autore
  • Gruppo di lavoro 2: Identificazione e valutazione del rischio sistemico
  • Gruppo di lavoro 3: Attenuazione tecnica del rischio sistemico
  • Gruppo di lavoro 4: Mitigazione del rischio di governance per il rischio sistemico

Il progetto è in linea con le leggi esistenti come la Carta dei diritti fondamentali dell’Unione europea. Tiene conto degli approcci internazionali, puntando alla proporzionalità rispetto ai rischi, e mira ad essere a prova di futuro contemplando i rapidi cambiamenti tecnologici.

Gli obiettivi chiave delineati nella bozza includono:

  • Chiarire i metodi di conformità per i fornitori di modelli di IA generici
  • Facilitare la comprensione lungo la catena del valore dell’intelligenza artificiale, garantendo la perfetta integrazione dei modelli di intelligenza artificiale nei prodotti a valle
  • Garantire il rispetto della normativa dell'Unione in materia di diritto d'autore, in particolare per quanto riguarda l'uso di materiale protetto da diritto d'autore per la formazione di modelli
  • Valutare e mitigare continuamente i rischi sistemici associati ai modelli di intelligenza artificiale

Riconoscere e mitigare i rischi sistemici

Una caratteristica fondamentale della bozza è la tassonomia dei rischi sistemici, che comprende tipi, natura e fonti di tali rischi. Il documento delinea varie minacce come i reati informatici, i rischi biologici, la perdita di controllo sui modelli di intelligenza artificiale autonomi e la disinformazione su larga scala. Riconoscendo la natura in continua evoluzione della tecnologia AI, la bozza riconosce che questa tassonomia avrà bisogno di aggiornamenti per rimanere rilevante.

Man mano che i modelli di intelligenza artificiale con rischi sistemici diventano più comuni, la bozza sottolinea la necessità di solidi quadri di sicurezza e protezione (SSF). Propone una gerarchia di misure, sottomisure e indicatori chiave di prestazione (KPI) per garantire un'adeguata identificazione, analisi e mitigazione del rischio durante tutto il ciclo di vita di un modello.

La bozza suggerisce che i fornitori stabiliscano processi per identificare e segnalare incidenti gravi associati ai loro modelli di intelligenza artificiale, offrendo valutazioni dettagliate e correzioni secondo necessità. Incoraggia inoltre la collaborazione con esperti indipendenti per la valutazione del rischio, in particolare per i modelli che presentano rischi sistemici significativi.

Assumere una posizione proattiva nei confronti degli orientamenti normativi sull’IA

IL HO attoentrato in vigore il 1° agosto 2024, impone che la versione finale del codice sia pronta entro il 1° maggio 2025. Questa iniziativa sottolinea la posizione proattiva dell'UE nei confronti della regolamentazione dell'IA, sottolineando la necessità di sicurezza, trasparenza e responsabilità dell'IA.

Mentre la bozza continua ad evolversi, i gruppi di lavoro invitano le parti interessate a partecipare attivamente al perfezionamento del documento. Il loro contributo collaborativo darà forma a un quadro normativo volto a salvaguardare l’innovazione proteggendo al tempo stesso la società dalle potenziali insidie ​​della tecnologia IA.

Sebbene sia ancora in forma di bozza, il codice di condotta dell’UE per i modelli di IA di uso generale potrebbe stabilire un punto di riferimento per lo sviluppo e la diffusione responsabile dell’IA a livello globale. Affrontando questioni chiave come la trasparenza, la gestione del rischio e la conformità al diritto d’autore, il Codice mira a creare un ambiente normativo che promuova l’innovazione, sostenga i diritti fondamentali e garantisca un elevato livello di protezione dei consumatori.

Questa bozza è aperta per feedback scritto fino al 28 novembre 2024.

Vedi anche: Anthropic sollecita una regolamentazione dell’IA per evitare catastrofi

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, prendi nota, intelligenza artificiale, sviluppo, etica, Unione Europea, Europa, Unione Europea, governo, guida, legge, legale, Politica, regolamento, sicurezza, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *