L'Unione Europea ha recentemente introdotto l'AI Act, un nuovo quadro di governance che obbliga le organizzazioni a migliorare la trasparenza riguardo ai dati di formazione dei loro sistemi di intelligenza artificiale.

Se questa legislazione dovesse entrare in vigore, potrebbe penetrare le difese che molti nella Silicon Valley hanno costruito contro un controllo così dettagliato dei processi di sviluppo e implementazione dell’IA.

Dal rilascio pubblico di ChatGPT di OpenAIsostenuta da Microsoft 18 mesi fa, si è verificata una crescita significativa dell’interesse e degli investimenti nelle tecnologie di intelligenza artificiale generativa. Queste applicazioni, in grado di scrivere testi, creare immagini e produrre contenuti audio a velocità record, hanno attirato notevole attenzione. Tuttavia, l’aumento dell’attività dell’IA che accompagna questi cambiamenti solleva una domanda intrigante: come fanno effettivamente gli sviluppatori di intelligenza artificiale a procurarsi i dati necessari per addestrare i loro modelli? È attraverso l'uso di materiale protetto da copyright non autorizzato?

Attuazione della legge sull’AI

IL La legge sull’IA dell’UEdestinato ad essere attuato gradualmente nel corso dei prossimi due anni, mira ad affrontare questi problemi. L’integrazione di nuove leggi richiede tempo e un’introduzione graduale concede ai regolatori il tempo necessario per adattarsi alle nuove leggi e alle imprese per adeguarsi ai nuovi obblighi. Tuttavia, l’attuazione di alcune norme rimane in dubbio.

Una delle sezioni più controverse della legge stabilisce che le organizzazioni che implementano modelli di IA generici, come ChatGPT, devono fornire “riepiloghi dettagliati” dei contenuti utilizzati per formarli. Il nuovo Ufficio AI ha annunciato l’intenzione di rilasciare un modello che le organizzazioni dovranno seguire all’inizio del 2025, previa consultazione con le parti interessate.

Le aziende di intelligenza artificiale hanno espresso una forte resistenza a rivelare i propri dati di formazione, descrivendo queste informazioni come segreti commerciali che fornirebbe ai concorrenti un vantaggio ingiusto se resi pubblici. Il livello di dettaglio richiesto in questi rapporti sulla trasparenza avrà implicazioni significative sia per le startup di intelligenza artificiale più piccole che per le grandi aziende tecnologiche come Google e Meta, che hanno posizionato la tecnologia AI al centro delle loro operazioni future.

Nell'ultimo anno, diverse importanti aziende tecnologiche, Google, OpenAI e Stability AI, hanno affrontato azioni legali da parte di creatori che affermano che i loro contenuti sono stati utilizzati senza autorizzazione per addestrare modelli di intelligenza artificiale. Sotto un crescente controllo, tuttavia, alcune aziende tecnologiche, negli ultimi due anni, hanno squarciato il proprio velo aziendale e negoziato accordi di licenza dei contenuti con singoli media e siti web. Alcuni creatori e legislatori rimangono preoccupati che queste misure non siano sufficienti.

La divisione dei legislatori europei

In Europa, le differenze tra i legislatori sono forti. Dragos Tudorache, che ha guidato la stesura della legge sull’intelligenza artificiale al Parlamento europeo, sostiene che le società di intelligenza artificiale dovrebbero essere obbligate a rendere open source i propri set di dati. Tudorache sottolinea l'importanza della trasparenza affinché i creatori possano determinare se il loro lavoro è stato utilizzato per addestrare algoritmi di intelligenza artificiale.

Al contrario, sotto la guida del presidente Emmanuel Macron, il governo francese si è opposto in privato all’introduzione di norme che potrebbero ostacolare la competitività delle startup europee di intelligenza artificiale. Il ministro delle Finanze francese Bruno Le Maire ha sottolineato la necessità che l’Europa sia leader mondiale nell’intelligenza artificiale, non semplicemente un consumatore di prodotti americani e cinesi.

L’AI Act riconosce la necessità di bilanciare la protezione dei segreti commerciali con la facilitazione dei diritti per le parti con interessi legittimi, compresi i titolari dei diritti d’autore. Tuttavia, trovare questo equilibrio rimane una sfida significativa.

Diversi settori variano su questo argomento. Matthieu Riouf, amministratore delegato della società di editing di immagini Photoroom, basata sull'intelligenza artificiale, paragona la situazione alle pratiche culinarie, sostenendo che c'è una parte segreta della ricetta che i migliori chef non condividerebbero. Rappresenta solo un esempio nella lunga lista di possibili scenari in cui questo tipo di crimine potrebbe dilagare. Tuttavia, Thomas Wolf, co-fondatore di una delle principali startup di intelligenza artificiale del mondo, Hugging Face, sostiene che, sebbene ci sarà sempre un desiderio di trasparenza, ciò non significa che l’intero settore adotterà un approccio incentrato sulla trasparenza.

Una serie di recenti controversie hanno fatto capire quanto tutto questo sia complicato. OpenAI ha dimostrato l'ultima versione di ChatGPT in una sessione pubblica, in cui la società è stata aspramente criticata per aver utilizzato una voce sintetica che sembrava quasi identica a quella dell'attrice Scarlett Johansson. Questi esempi evidenziano la possibilità che le tecnologie di intelligenza artificiale violino i diritti personali e proprietari.

Durante lo sviluppo di queste normative, si è svolto un acceso dibattito sui loro potenziali effetti sull’innovazione e sulla competitività future nel mondo dell’intelligenza artificiale. In particolare, il governo francese ha sollecitato che l’innovazione, e non la regolamentazione, dovrebbe essere il punto di partenza, dati i pericoli derivanti dalla regolamentazione di aspetti che non sono stati pienamente compresi.

Il modo in cui l’UE regola la trasparenza dell’IA potrebbe avere impatti significativi sulle aziende tecnologiche, sui creatori digitali e sul panorama digitale complessivo. I policy maker si trovano quindi ad affrontare la sfida di promuovere l’innovazione nel dinamico settore dell’intelligenza artificiale, guidandolo allo stesso tempo verso decisioni sicure ed etiche e prevenendo la violazione della proprietà intellettuale.

In sintesi, se adottato, l’EU AI Act rappresenterebbe un passo significativo verso una maggiore trasparenza nello sviluppo dell’IA. Tuttavia, l’attuazione pratica di queste normative e i relativi risultati a livello industriale potrebbero essere ancora lontani. Andando avanti, soprattutto agli albori di questo nuovo paradigma normativo, l’equilibrio tra innovazione, sviluppo etico dell’IA e protezione della proprietà intellettuale rimarrà una questione centrale e controversa con cui le parti interessate di ogni tipo dovranno confrontarsi.

Guarda anche: Secondo quanto riferito, Apple sta ottenendo l’accesso gratuito a ChatGPT

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, chatgpt, etica, ai generativi, openai

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *