
Quando le generazioni future guarderanno indietro all’ascesa delle tecnologie di intelligenza artificiale, l’anno 2025 potrebbe essere ricordato come un importante punto di svolta, quando l’industria ha compiuto passi concreti verso una maggiore inclusione e ha abbracciato strutture decentralizzate che riconoscono e compensano equamente ogni stakeholder.
La crescita dell’intelligenza artificiale ha già innescato la trasformazione in diversi settori, ma il ritmo di adozione ha anche portato a preoccupazioni sulla proprietà dei dati, sulla privacy e sulla violazione del copyright. Poiché l’intelligenza artificiale è centralizzata con i modelli più potenti controllati dalle aziende, i creatori di contenuti sono stati in gran parte messi da parte.
OpenAI, la società di intelligenza artificiale più importante al mondo, lo ha già fatto ha ammesso che è così. Nel gennaio 2024, ha dichiarato alla House of Lords Communications and Digital Select Committee del Regno Unito che non sarebbe stata in grado di creare il suo iconico chatbot, ChatGPT, senza formarlo su materiale protetto da copyright.
OpenAI ha addestrato ChatGPT su qualunque cosa che è stato pubblicato sull’Internet pubblica prima del 2023, ma le persone che hanno creato quel contenuto – molti dei quali sono protetti da copyright – non hanno ricevuto alcun compenso; una delle principali fonti di contesa.
Esiste un'opportunità per progetti di intelligenza artificiale decentralizzata come quello proposto da Alleanza ASI offrire un modo alternativo di sviluppo del modello di intelligenza artificiale. L’Alleanza sta costruendo un quadro che offra ai creatori di contenuti un metodo per mantenere il controllo sui propri dati, insieme a meccanismi per un’equa ricompensa nel caso in cui scelgano di condividere il proprio materiale con i creatori di modelli di intelligenza artificiale. È una base più etica per lo sviluppo dell’intelligenza artificiale e il 2025 potrebbe essere l’anno in cui riceverà maggiore attenzione.
L'enigma del copyright di AI
OpenAI non è l'unica società di intelligenza artificiale accusata di violazione del copyright. La stragrande maggioranza dei modelli di intelligenza artificiale, compresi quelli che pretendono di essere open source, come il modello Llama 3 di Meta Platforms, lo sono colpevole di aver raschiato l'Internet pubblica per i dati di addestramento.
Gli sviluppatori di intelligenza artificiale si servono abitualmente di qualunque contenuto trovino online, ignorando il fatto che gran parte del materiale è protetto da copyright. Leggi sul diritto d'autore sono progettati per proteggere i creatori di opere originali, come libri, articoli, canzoni, software, opere d'arte e foto, dallo sfruttamento e rendere illegale l'uso non autorizzato di tali materiali.
Aziende del calibro di OpenAI, Meta, Anthropic, StabilityAI, Perplexity AI, Cohere e AI21 Labs aggirano la legge sostenendo 'uso corretto,' riferimento a una clausola ambigua della legge sul diritto d'autore che consente l'uso limitato di contenuti protetti senza la necessità di ottenere il permesso del creatore. Ma non esiste una definizione chiara di ciò che effettivamente costituisce un “fair use” e molti autori sostengono che l’intelligenza artificiale minacci il loro sostentamento.
Molti creatori di contenuti hanno fatto ricorso ad azioni legali, con a cause legali importanti depositato dal New York Times contro OpenAI. Nella tuta, il Volte sostiene che OpenAI abbia commesso una violazione del copyright quando ha importato migliaia di articoli per addestrare i suoi grandi modelli linguistici. L'organizzazione mediatica sostiene che tale pratica è illegale, in quanto ChatGPT è un prodotto concorrente che mira a “rubare pubblico” al Volte sito web.
La causa ha portato ad a discussione – Le aziende di intelligenza artificiale dovrebbero essere autorizzate a continuare a consumare qualsiasi contenuto su Internet o dovrebbero essere obbligate a chiedere prima il permesso e a compensare coloro che creano dati di addestramento?
Il consenso sembra spostarsi verso quest’ultima ipotesi. Ad esempio, il defunto ex ricercatore OpenAI Suchir Balaji, ha detto a Volte in un colloquio che gli è stato assegnato il compito di guidare la raccolta di dati per addestrare i modelli di ChatGPT. Ha detto che il suo lavoro consisteva nel reperire contenuti da ogni fonte possibile, inclusi post generati dagli utenti sui social media, archivi di libri piratati e articoli dietro paywall. Tutto il contenuto è stato raschiato senza che fosse richiesta l'autorizzazione, ha detto.
Balaji ha affermato di aver inizialmente accettato l'argomentazione di OpenAI secondo cui se le informazioni fossero state pubblicate online e disponibili gratuitamente, lo scraping costituiva un fair use. Tuttavia, ha affermato che in seguito ha iniziato a mettere in discussione la posizione dopo aver realizzato che prodotti come ChatGPT potevano danneggiare i creatori di contenuti. Alla fine, ha detto, non poteva più giustificare la pratica dello scraping dei dati, dimettendosi dalla società nell’estate del 2024.
Un caso crescente di intelligenza artificiale decentralizzata
L'uscita di Balaji da OpenAI sembra coincidere con la presa di coscienza da parte delle aziende di intelligenza artificiale che la pratica di aiutarsi con qualsiasi contenuto trovato online è insostenibile e che i creatori di contenuti necessitano di protezione legale.
La prova di ciò viene dall'ondata di accordi di licenza sui contenuti annunciato lo scorso anno. OpenAI ha stipulato accordi con una serie di editori di contenuti di alto profilo, tra cui Financial Times, NewsCorp, Condé Nast, Axel Springer, Stampa associatae Reddit, che ospita milioni di pagine di contenuti generati dagli utenti sui suoi forum. Altri sviluppatori di intelligenza artificiale, come Google, Microsoft e Meta, hanno stretto partnership simili.
Ma resta da vedere se questi accordi si riveleranno soddisfacenti, soprattutto se le aziende di intelligenza artificiale generano entrate per miliardi di dollari. Sebbene i termini degli accordi di licenza dei contenuti non siano stati resi pubblici, L'informazione afferma di esserlo vale qualche milione di dollari l’anno al massimo. Considerando che l'ex capo scienziato di OpenAI Ilya Sutskever lo era pagato uno stipendio di 1,9 milioni di dollari nel 2016, il denaro offerto agli editori potrebbe non essere all’altezza del valore reale dei contenuti.
C'è anche il fatto che milioni di piccoli creatori di contenuti – come blogger, influencer dei social media ecc. – continuano a essere esclusi dagli accordi.
Le discussioni sulla violazione del diritto d’autore da parte dell’IA probabilmente dureranno anni senza essere risolte, e l’ambiguità legale sullo scraping dei dati, insieme al crescente riconoscimento tra i professionisti che tali pratiche non sono etiche, stanno contribuendo a rafforzare la causa a favore di quadri decentralizzati.
I framework di IA decentralizzati forniscono agli sviluppatori un modello più basato su principi per la formazione sull’IA in cui i diritti dei creatori di contenuti sono rispettati e in cui ogni contributore può essere ricompensato equamente.
Al centro dell’intelligenza artificiale decentralizzata c’è la blockchain, che consente lo sviluppo, la formazione, l’implementazione e la governance di modelli di intelligenza artificiale attraverso reti globali distribuite di proprietà di tutti. Ciò significa che tutti possono partecipare alla costruzione di sistemi di intelligenza artificiale trasparenti, in contrapposizione ai modelli di intelligenza artificiale centralizzati e di proprietà aziendale che sono spesso descritti come “scatole nere”.
Proprio mentre si intensificano le discussioni sulla violazione del copyright sull’IA, i progetti di intelligenza artificiale decentralizzata si stanno facendo strada; quest’anno promette di essere un anno importante nel passaggio verso uno sviluppo dell’IA più trasparente ed etico.
IA decentralizzata in azione
Verso la fine del 2024, tre startup di intelligenza artificiale basate su blockchain hanno formato l'Artificial Superintelligence (ASI) Alliance, un'organizzazione che lavora per la creazione di una “superintelligenza decentralizzata” per alimentare sistemi di intelligenza artificiale avanzati che chiunque possa utilizzare.
L'ASI Alliance afferma di essere il più grande attore indipendente e open source nella ricerca e sviluppo dell'intelligenza artificiale. È stato creato da SingularityNETche ha sviluppato una rete di intelligenza artificiale decentralizzata e un livello di calcolo; Recupera.aifocalizzato sulla creazione di agenti IA autonomi in grado di eseguire compiti complessi senza assistenza umana; E Protocollo Oceanoil creatore di uno scambio trasparente di dati di addestramento dell’IA.
La missione dell'ASI Alliance è fornire un'alternativa ai sistemi di intelligenza artificiale centralizzati, enfatizzando le piattaforme open source e decentralizzate, inclusi dati e risorse di calcolo.
Per proteggere i creatori di contenuti, l'ASI Alliance sta costruendo un quadro di scambio basato sulla tecnologia Ocean Protocol, in cui chiunque può fornire dati da utilizzare per la formazione sull'intelligenza artificiale. Gli utenti saranno in grado di caricare dati sul sistema basato su blockchain e mantenerne la proprietà, guadagnando premi ogni volta che modelli o sviluppatori di intelligenza artificiale vi accedono. Altri potranno contribuire aiutando a etichettare e annotare i dati per renderli più accessibili ai modelli di intelligenza artificiale e guadagnare ricompense per aver svolto questo lavoro. In questo modo, l’ASI Alliance promuove un modo più etico per gli sviluppatori di ottenere i dati di addestramento di cui hanno bisogno per creare modelli di intelligenza artificiale.
Poco dopo la sua formazione, l'Alleanza lanciò il MA
I modelli specializzati differiscono dai LLM generici, che sono ottimi nel rispondere a domande e creare contenuti e immagini, ma meno utili quando viene chiesto di risolvere problemi più complessi che richiedono competenze significative. Ma creare modelli specializzati sarà uno sforzo comunitario: l’ASI Alliance ha bisogno di esperti del settore per fornire i dati necessari per addestrare i modelli.
Il CEO di Fetch.ai, Humayun Sheikh, ha affermato che il modello di proprietà decentralizzata dell'ASI Alliance crea un ecosistema “in cui gli individui supportano tecnologie all'avanguardia e condividono la creazione di valore”.
Gli utenti senza conoscenze specifiche possono acquistare e “staking” token FET per diventare proprietari parziali di modelli di intelligenza artificiale decentralizzati e guadagnare una quota delle entrate generate quando vengono utilizzati dalle applicazioni di intelligenza artificiale.
Per i creatori di contenuti, i vantaggi di un approccio decentralizzato all’intelligenza artificiale sono chiari. Il framework di ASI consente loro di mantenere il controllo dei propri dati e di monitorare quando vengono utilizzati dai modelli di intelligenza artificiale. Integra meccanismi codificati nei contratti intelligenti per garantire che tutti siano equamente compensati. I partecipanti guadagnano ricompense per il contributo di risorse computazionali, dati e competenze o per il supporto dell'ecosistema attraverso lo staking.
L'ASI Alliance gestisce un modello di governance decentralizzata, in cui i possessori di token possono votare su decisioni chiave per garantire che il progetto si evolva a beneficio delle parti interessate, piuttosto che degli azionisti delle società.
L’intelligenza artificiale per tutti è una necessità
I progressi compiuti dall’intelligenza artificiale decentralizzata sono entusiasmanti e arrivano in un momento in cui è necessario. L’intelligenza artificiale si sta evolvendo rapidamente e le società di intelligenza artificiale centralizzata sono attualmente in prima linea nell’adozione; per molti, una delle principali cause di preoccupazione.
Dato il potenziale trasformativo dell’intelligenza artificiale e del rischi che comporta per i mezzi di sussistenza individualiè importante che l’industria passi a modelli più responsabili. I sistemi di intelligenza artificiale dovrebbero essere sviluppati a vantaggio di tutti e ciò significa che ogni contributore viene ricompensato per la partecipazione. Solo i sistemi di intelligenza artificiale decentralizzati hanno dimostrato di poterlo fare.
L’intelligenza artificiale decentralizzata non è solo una cosa piacevole da avere, ma una necessità, poiché rappresenta l’unica alternativa praticabile in grado di spezzare la morsa della grande tecnologia sulla creatività.
Fonte: www.artificialintelligence-news.com