Le capacità dell'intelligenza artificiale sono esplose negli ultimi due anni, con modelli linguistici di grandi dimensioni (LLM) come ChatGPT, Dall-E e Midjourney che sono diventati strumenti di uso quotidiano. Mentre stai leggendo questo articolo, programmi di intelligenza artificiale generativa stanno rispondendo a e-mail, scrivendo copie di marketing, registrando canzoni e creando immagini da semplici input.
Ciò che è ancora più notevole da osservare è la velocità con cui sia gli individui che le aziende stanno abbracciando l'ecosistema dell'IA. Un recente sondaggio da McKinsey ha rivelato che il numero di aziende che hanno adottato l'intelligenza artificiale generativa in almeno una funzione aziendale è raddoppiato nel giro di un anno, passando dal 33% all'inizio del 2023 al 65%.
Tuttavia, come la maggior parte dei progressi tecnologici, questa nascente area di innovazione non è priva di sfide. La formazione e l'esecuzione di programmi di intelligenza artificiale sono attività che richiedono molte risorse e, allo stato attuale delle cose, la grande tecnologia sembra avere la meglio, il che crea il rischio di centralizzazione dell'intelligenza artificiale.
Il limite computazionale nello sviluppo dell'intelligenza artificiale
Secondo un articolo Secondo il World Economic Forum, la domanda di elaborazione basata sull'intelligenza artificiale è in rapida crescita; la potenza di calcolo necessaria per sostenere lo sviluppo dell'intelligenza artificiale sta attualmente crescendo a un tasso annuo compreso tra il 26% e il 36%.
Un altro studio recente di Epoch AI conferma questa tendenza, con proiezioni che mostrano che presto addestrare o gestire programmi di intelligenza artificiale costerà miliardi di dollari.
“Il costo delle più grandi sessioni di addestramento dell’intelligenza artificiale sta crescendo di un fattore da due a tre all’anno dal 2016, e questo pone prezzi di miliardi di dollari all’orizzonte entro il 2027, forse prima”, notato Ben Cottier, ricercatore presso Epoch AI.
Secondo me, siamo già a questo punto. Microsoft ha investito 10 miliardi di dollari in OpenAI l'anno scorso e, più di recente, è emersa la notizia che le due entità stanno pianificando di costruire un data center che ospiterà un supercomputer alimentato da milioni di chip specializzati. Il costo? La bellezza di 100 miliardi di dollari, ovvero dieci volte di più dell'investimento iniziale.
Beh, Microsoft non è l'unica grande azienda tecnologica che sta facendo spese folli per aumentare le sue risorse di elaborazione AI. Altre aziende nella corsa agli armamenti AI, tra cui Google, Alphabet e Nvidia, stanno tutte indirizzando una quantità significativa di finanziamenti alla ricerca e allo sviluppo AI.
Sebbene possiamo concordare sul fatto che il risultato potrebbe corrispondere alla quantità di denaro investita, è difficile ignorare il fatto che lo sviluppo dell'IA è attualmente uno sport da “big tech”. Solo queste aziende con le tasche piene hanno la capacità di finanziare progetti di IA per decine o centinaia di miliardi.
La domanda sorge spontanea: cosa si può fare per evitare le stesse insidie in cui si trovano le innovazioni Web2, a causa del controllo dell'innovazione da parte di una manciata di aziende?
Il vicedirettore HAI e direttore della facoltà di ricerca di Stanford, James Landay, è uno degli esperti che in precedenza pesato in questo scenario. Secondo Landay, la corsa alle risorse GPU e la priorità data dalle grandi aziende tecnologiche all'uso della loro potenza di calcolo AI internamente innescherà la domanda di potenza di calcolo, spingendo in ultima analisi gli stakeholder a sviluppare soluzioni hardware più economiche.
In Cina, il governo sta già intensificando gli sforzi per supportare le startup di intelligenza artificiale in seguito alle guerre dei chip con gli Stati Uniti, che hanno limitato le aziende cinesi nell'accesso senza problemi a chip cruciali. I governi locali in Cina introdotto sussidi all'inizio di quest'anno, impegnandosi a offrire voucher di elaborazione per le startup di intelligenza artificiale che vanno da $ 140.000 a $ 280.000. Questo sforzo è finalizzato a ridurre i costi associati alla potenza di elaborazione.
Decentralizzazione dei costi di elaborazione dell’intelligenza artificiale
Osservando lo stato attuale dell'informatica AI, un tema è costante: l'industria è attualmente centralizzata. Le grandi aziende tecnologiche controllano la maggior parte della potenza di calcolo e dei programmi AI. Più le cose cambiano, più rimangono le stesse.
Il lato positivo è che questa volta le cose potrebbero cambiare per sempre, grazie alle infrastrutture informatiche decentralizzate come Qubic Blockchain di livello 1. Questa blockchain di livello 1 utilizza un meccanismo di mining avanzato denominato utile Proof-of-Work (PoW); a differenza del tipico PoW di Bitcoin che utilizza energia al solo scopo di proteggere la rete, l'uPoW di Qubic utilizza la sua potenza di calcolo per attività di intelligenza artificiale produttive come l'addestramento di reti neurali.
In termini più semplici, Qubic sta decentralizzando l'approvvigionamento di potenza di calcolo AI allontanandosi dall'attuale paradigma in cui gli innovatori sono limitati all'hardware che possiedono o hanno noleggiato da grandi aziende tecnologiche. Invece, questo L1 sta attingendo alla sua rete di minatori che potrebbero arrivare a decine di migliaia per fornire potenza di calcolo.
Sebbene sia un po' più tecnico rispetto al lasciare che la big tech gestisca il lato backend delle cose, un approccio decentralizzato all'approvvigionamento di potenza di calcolo AI è più economico. Ma cosa ancora più importante, sarebbe giusto solo se le innovazioni AI fossero guidate da più stakeholder, al contrario dello stato attuale in cui il settore sembra fare affidamento su pochi attori.
Cosa succederebbe se tutti andassero in fallimento? A peggiorare le cose, queste aziende tecnologiche si sono dimostrate inaffidabili con progressi tecnologici che cambiano la vita.
Oggi, la maggior parte delle persone è in rivolta contro le violazioni della privacy dei dati, per non parlare di altri problemi correlati come la manipolazione sociale. Con le innovazioni decentralizzate dell'IA, sarà più facile controllare gli sviluppi riducendo al contempo i costi di ingresso.
Conclusione
Le innovazioni dell'intelligenza artificiale sono appena agli inizi, ma la sfida di accedere al potere di calcolo è ancora un ostacolo. Per giunta, le grandi aziende tecnologiche attualmente controllano la maggior parte delle risorse, il che rappresenta una grande sfida per il tasso di innovazione, per non parlare del fatto che queste stesse aziende potrebbero finire per avere più potere sui nostri dati, l'oro digitale.
Tuttavia, con l'avvento delle infrastrutture decentralizzate, l'intero ecosistema dell'intelligenza artificiale ha maggiori possibilità di ridurre i costi di elaborazione ed eliminare il controllo delle grandi aziende tecnologiche su una delle tecnologie più preziose del XXI secolo.
Fonte: www.artificialintelligence-news.com