L’intelligenza artificiale centralizzata è pericolosa: come possiamo fermarla?

 | Intelligenza-Artificiale

L'intelligenza mostrata dai chatbot con intelligenza artificiale generativa come ChatGPT di OpenAI ha catturato l'immaginazione di individui e aziende e l'intelligenza artificiale è improvvisamente diventata l'area più entusiasmante dell'innovazione tecnologica.

L’intelligenza artificiale è stata riconosciuta come un punto di svolta, con il potenziale di trasformare molti aspetti della nostra vita. Dalla medicina personalizzata ai veicoli autonomi, dagli investimenti automatizzati alle risorse digitali, le possibilità offerte dall’intelligenza artificiale sembrano infinite.

Ma per quanto trasformativa possa essere l’intelligenza artificiale, ci sono molti rischi posti da questa nuova tecnologia. Mentre i timori di un sistema di intelligenza artificiale dannoso in stile Skynet che diventa canaglia sono fuori luogo, i pericoli della centralizzazione dell’intelligenza artificiale non lo sono. Mentre aziende come Microsoft, Google e Nvidia avanzano nella ricerca dell’intelligenza artificiale, i timori sulla concentrazione del potere nelle mani di pochi attori centralizzati stanno diventando più pronunciati.

Perché dovremmo preoccuparci dell’intelligenza artificiale decentralizzata?

Potere monopolistico

Il problema più urgente derivante dall’intelligenza artificiale centralizzata è la prospettiva che alcuni giganti della tecnologia raggiungano risultati positivi controllo monopolistico sul settore. I grandi giganti della tecnologia hanno già accumulato una quota di mercato molto significativa nell’intelligenza artificiale, conferendo loro il possesso di enormi quantità di dati. Controllano anche l’infrastruttura su cui girano i sistemi di intelligenza artificiale, consentendo loro di soffocare i concorrenti, ostacolare l’innovazione e perpetuare la disuguaglianza economica.

Ottenendo il monopolio sullo sviluppo dell’intelligenza artificiale, queste aziende hanno maggiori probabilità di esercitare un’influenza sleale sui quadri normativi, che possono manipolare a proprio vantaggio. Ciò significherà che le startup più piccole, che non dispongono delle enormi risorse dei grandi giganti della tecnologia, faranno fatica a tenere il passo dell’innovazione. Quelle che sopravvivono e sembrano destinate a prosperare finiranno quasi certamente per essere acquisite, concentrando ulteriormente il potere nelle mani di pochi. Il risultato sarà una minore diversità in termini di sviluppo dell’intelligenza artificiale, meno scelte per i consumatori e condizioni meno favorevoli, che limiteranno i casi d’uso e le opportunità economiche promesse dall’intelligenza artificiale.

Pregiudizi e discriminazioni

A parte il controllo monopolistico, ci sono timori genuini in giro pregiudizi dei sistemi di intelligenza artificialee queste preoccupazioni assumeranno maggiore importanza man mano che la società fa sempre più affidamento sull’intelligenza artificiale.

Il rischio deriva dal fatto che le organizzazioni fanno sempre più affidamento su sistemi automatizzati per prendere decisioni in molte aree. Non è insolito per un’azienda utilizzare algoritmi di intelligenza artificiale per filtrare i candidati, ad esempio, e il rischio è che un sistema parziale possa escludere ingiustamente un sottoinsieme di candidati in base alla loro etnia, età o posizione. L’intelligenza artificiale viene utilizzata anche dalle compagnie assicurative per fissare i tassi delle polizze, dalle società di servizi finanziari per determinare se qualcuno è idoneo a ricevere un prestito e l’importo degli interessi che dovrà pagare, e dalle forze dell’ordine per determinare quali aree hanno maggiori probabilità di vedere un aumento crimine. In tutti questi casi d’uso, le potenziali implicazioni di sistemi di intelligenza artificiale distorti sono estremamente preoccupanti.

Che si tratti di forze dell’ordine che prendono di mira comunità minoritarie, pratiche di prestito discriminatorie o qualcos’altro, l’intelligenza artificiale centralizzata può potenzialmente esacerbare la disuguaglianza sociale e consentire una discriminazione sistemica.

Privacy e sorveglianza

Un altro rischio rappresentato dai sistemi di IA centralizzati è la mancanza di tutela della privacy. Quando solo poche grandi aziende controllano la stragrande maggioranza dei dati generati dall’intelligenza artificiale, acquisiscono la capacità di effettuare una sorveglianza senza precedenti sui propri utenti. I dati accumulati dalle piattaforme di intelligenza artificiale più dominanti possono essere utilizzati per monitorare, analizzare e prevedere il comportamento di un individuo con incredibile precisione, erodendo la privacy e aumentando il rischio di utilizzo improprio delle informazioni.

È particolarmente preoccupante nei paesi con governi autoritari, dove i dati possono essere utilizzati come armi per creare strumenti più sofisticati monitorare i cittadini. Ma anche nelle società democratiche esiste una minaccia rappresentata da una maggiore sorveglianza, come esemplificato dalle rivelazioni di Edward Snowden sul programma Prism della National Security Agency statunitense.

Le aziende possono anche potenzialmente abusare dei dati dei consumatori per aumentare i propri profitti. Inoltre, quando le entità centralizzate accumulano grandi quantità di dati sensibili, ciò le rende obiettivi più redditizi per gli hacker, aumentando il rischio di fughe di dati.

Rischi per la sicurezza

Problemi di sicurezza nazionale possono sorgere anche a causa dell’intelligenza artificiale centralizzata. Ad esempio, ci sono timori giustificati che i sistemi di intelligenza artificiale possano esserlo armato dalle nazioni, utilizzati per condurre guerre cibernetiche, impegnarsi nello spionaggio e sviluppare nuovi sistemi d’arma. L’intelligenza artificiale potrebbe diventare uno strumento chiave nelle guerre future, aumentando la posta in gioco nei conflitti geopolitici.

Anche i sistemi di intelligenza artificiale stessi possono essere presi di mira. Man mano che le nazioni aumentano la loro dipendenza dall’intelligenza artificiale, tali sistemi costituiranno obiettivi allettanti, poiché sono evidenti singoli punti di fallimento. Elimina un sistema di intelligenza artificiale e potresti interrompere l'intero flusso di traffico delle città, abbattere le reti elettriche e altro ancora.

Etica

L’altra grande preoccupazione dell’IA centralizzata riguarda etica. Questo perché la manciata di aziende che controllano i sistemi di intelligenza artificiale acquisirebbero un’influenza sostanziale sulle norme e sui valori culturali di una società e potrebbero spesso dare priorità al profitto, creando ulteriori preoccupazioni etiche.

Ad esempio, gli algoritmi di intelligenza artificiale sono già ampiamente utilizzati dalle piattaforme di social media per moderare i contenuti, nel tentativo di identificare e filtrare i post offensivi. La preoccupazione è che gli algoritmi, per errore o per progettazione, potrebbero finire per sopprimere la libertà di parola.

Esiste già controversia sull’efficacia dei sistemi di moderazione basati sull’intelligenza artificiale, con numerosi post apparentemente innocui bloccati o rimossi da algoritmi automatizzati. Ciò porta a ipotizzare che tali sistemi non siano rotti ma siano manipolati dietro le quinte in base alla narrativa politica che la piattaforma sta cercando di promuovere.

L'alternativa? IA decentralizzata

L’unico contrappeso logico all’IA centralizzata è lo sviluppo di sistemi di IA decentralizzati che garantiscano che il controllo della tecnologia rimanga nelle mani della maggioranza, piuttosto che di pochi. In questo modo possiamo garantire che nessuna singola azienda o entità acquisisca un’influenza significativa sulla direzione dello sviluppo dell’intelligenza artificiale.

Quando lo sviluppo e la governance dell’IA saranno condivisi da migliaia o milioni di entità, il suo progresso sarà più equo, con un maggiore allineamento ai bisogni dell’individuo. Il risultato saranno applicazioni IA più diversificate, con una selezione quasi infinita di modelli utilizzati da sistemi diversi, invece di pochi modelli che dominano il settore.

I sistemi di IA decentralizzati significheranno anche controlli ed equilibri contro il rischio di sorveglianza di massa e manipolazione dei dati. Mentre l’IA centralizzata può essere trasformata in un’arma e utilizzata in un modo contrario agli interessi di molti, l’IA decentralizzata si difende da questo tipo di oppressione.

Il vantaggio principale dell’intelligenza artificiale decentralizzata è che tutti hanno il controllo sull’evoluzione della tecnologia, impedendo a qualsiasi singola entità di acquisire un’influenza eccessiva sul suo sviluppo.

Come decentralizzare l'intelligenza artificiale

L’intelligenza artificiale decentralizzata implica un ripensamento dei livelli che compongono lo stack tecnologico dell’intelligenza artificiale, inclusi elementi come l’infrastruttura (risorse di calcolo e di rete), i dati, i modelli, la formazione, l’inferenza e i processi di messa a punto.

Non possiamo semplicemente riporre le nostre speranze nei modelli open source se l’infrastruttura sottostante rimane completamente centralizzata da giganti del cloud computing come Amazon, Microsoft e Google, ad esempio. Dobbiamo garantire che ogni aspetto dell’intelligenza artificiale sia decentralizzato

Il modo migliore per decentralizzare lo stack dell’intelligenza artificiale è scomporlo in componenti modulari e creare mercati attorno ad essi in base alla domanda e all’offerta. Uno di questi esempi di come questo può funzionare è Sferoneche ha creato una rete di infrastruttura fisica decentralizzata (DePIN) a cui chiunque può partecipare.

Con DePIN di Spheron, tutti sono liberi di condividere le proprie risorse informatiche sottoutilizzate, essenzialmente affittandole a coloro che necessitano di infrastrutture per ospitare le proprie applicazioni IA. Pertanto, un grafico che utilizza un potente laptop con una GPU può donare potenza di elaborazione al DePIN quando non lo utilizza per il proprio lavoro ed essere ricompensato con incentivi simbolici.

Ciò significa che il livello dell’infrastruttura AI diventa ampiamente distribuito e decentralizzato, senza che un singolo fornitore ne abbia il controllo. È reso possibile dalla tecnologia blockchain e dai contratti intelligenti, che forniscono trasparenza, immutabilità e automazione.

DePIN può funzionare anche per modelli open source e dati sottostanti. Ad esempio, è possibile condividere set di dati di addestramento su una rete decentralizzata come Qubicche garantirà che il fornitore di tali dati venga ricompensato ogni volta che un sistema di intelligenza artificiale accede alle sue informazioni.

Per garantire che l’accesso e le autorizzazioni siano decentralizzati, ogni parte dello stack tecnologico è distribuita in questo modo. Tuttavia, l’industria dell’intelligenza artificiale attualmente fatica a fornire un tale livello di decentralizzazione. Sebbene i modelli open source siano diventati estremamente popolari tra gli sviluppatori di intelligenza artificiale, la maggior parte delle persone continua a fare affidamento su reti cloud proprietarie, il che significa che i processi di formazione e inferenza sono fortemente centralizzati.

Ma ci sono forti incentivi affinché il decentramento abbia la meglio. Uno dei principali vantaggi delle reti DePIN, ad esempio, è che aiutano a ridurre le spese generali. Poiché le reti come Spheron non fanno affidamento su intermediari, i partecipanti non devono effettuare pagamenti o condividere le entrate con terze parti. Inoltre, possono permettersi di essere più competitivi in ​​termini di prezzi rispetto alle aziende che sono sotto pressione per aumentare la redditività.

Il decentramento deve vincere

Il futuro dell’intelligenza artificiale ha un grande potenziale, ma è anche pericoloso. Sebbene le capacità dei sistemi di intelligenza artificiale siano migliorate notevolmente negli ultimi anni, la maggior parte dei progressi sono stati compiuti da aziende onnipotenti e ciò ha comportato un aumento della loro influenza sul settore. C’è un prezzo da pagare per questo, non solo in termini monetari.

L’unica alternativa ragionevole è promuovere una maggiore adozione dell’IA decentralizzata, che può migliorare l’accessibilità e garantire una maggiore flessibilità dell’IA. Consentendo a tutti di partecipare allo sviluppo dell’intelligenza artificiale su un piano di parità, vedremo applicazioni più diversificate, interessanti e utili che potranno avvantaggiare tutti allo stesso modo, oltre a mettere al primo posto i loro utenti.

Costruire un futuro IA decentralizzato comporterà una grande quantità di coordinamento e collaborazione su ogni livello dello stack IA. Fortunatamente, ci sono forti incentivi affinché i partecipanti facciano proprio questo. E ancora, gli incentivi non sono solo monetari.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *