AI News ha incontrato Victor Jakubiuk, responsabile dell’intelligenza artificiale presso Calcolo dell’Ampereun’azienda di semiconduttori che offre processori cloud native. Abbiamo discusso di come stanno promuovendo soluzioni ad alte prestazioni, scalabili ed efficienti dal punto di vista energetico realizzate per il cloud sostenibile.
Nel panorama aziendale odierno, l’intelligenza artificiale (AI) ha rappresentato un innegabile punto di svolta, guidando l’innovazione e la competitività in tutti i settori. Tuttavia, recentemente è emerso un ostacolo critico mentre le aziende passano rapidamente ai processi nativi del cloud: una grave carenza di server e l’aumento dei costi operativi.
Con la crescente domanda di potenza computazionale che mette a rischio la perfetta integrazione delle iniziative basate sull’intelligenza artificiale, le aziende si trovano ora ad affrontare il compito urgente di trovare soluzioni innovative, convenienti e molto più sostenibili per affrontare questa carenza, una carenza destinata a continuare.
A preoccupare è anche l’impatto sull’ambiente. UN nuovo studio rivela che entro il 2027 l’industria dell’intelligenza artificiale potrebbe consumare tanta energia quanto un paese come Argentina, Paesi Bassi o Svezia. Con le unità di elaborazione grafica (GPU) ad alto consumo energetico, una scelta popolare per i carichi di lavoro IA, questa potenza di calcolo ha fatto sì che il consumo di energia e le emissioni di carbonio raggiungano livelli senza precedenti.
Man mano che le aziende ampliano la propria impronta digitale, l’imperativo della sostenibilità diventa sempre più importante. L’impatto ambientale dell’hardware ad alta intensità energetica rappresenta una sfida morale e pratica, richiedendo soluzioni che concilino le prestazioni con l’utilizzo responsabile delle risorse.
“L’efficienza è fondamentale nel futuro dell’informatica”, spiega Jakubiuk. “Mentre l’universo del calcolo e dei dati si espande in modo esponenziale, l’attenzione all’efficienza energetica nei carichi di lavoro individuali è in notevole aumento”.
“Storicamente, le GPU sono state la scelta ideale per l’addestramento dei modelli di intelligenza artificiale grazie alla loro potenza di calcolo. Tuttavia, sono assetati di energia e inefficienti per la produzione”, afferma. “L’implementazione delle GPU per l’inferenza trasferisce queste inefficienze, sommando potenza, costi e complessità operative.”
Ciò è tanto più evidente man mano che i processi aumentano, avverte. Mentre l’addestramento dell’intelligenza artificiale richiede grandi quantità di calcolo iniziale, l’inferenza dell’intelligenza artificiale può richiedere fino a 10 volte più calcolo totale nel tempo, creando un problema ancora più grande man mano che aumenta la portata dell’utilizzo dell’intelligenza artificiale.
Ampere Computing si è posta l’obiettivo di fornire soluzioni che soddisfino queste esigenze. “Ci concentriamo esclusivamente sull’efficiente inferenza dell’intelligenza artificiale su unità di elaborazione centrale (CPU) meno assetate di energia, offrendo efficienza e convenienza senza precedenti nel cloud”, afferma Jakubiuk. “Le nostre soluzioni software e hardware offrono una transizione senza soluzione di continuità senza la necessità di una revisione dei framework esistenti, distinguendoci dalle alternative closed-source.”
“Il nostro software, compatibile con tutti i framework open source, consente il computing consapevole senza la necessità di estese riscritture, a differenza dei sistemi proprietari”, afferma, sottolineando che i processori Ampere Cloud Native sono disponibili con tutti i principali provider cloud come Oracle Cloud, Google Cloud , e Microsoft Azure, e su Scaleway tra i CSP europei.
I carichi di lavoro dell’intelligenza artificiale oggi rientrano in quattro categorie: visione artificiale, PNL, motori di raccomandazione e intelligenza artificiale generativa. La combinazione software e hardware di Ampere Computing si adatta perfettamente a tutti questi carichi di lavoro per implementazioni IA sostenibili su larga scala.
“L’intelligenza artificiale, essendo una tecnologia orizzontale, trova compatibilità in vari settori, da quelli conservatori come la finanza a ambiti innovativi come le auto a guida autonoma. La versatilità delle soluzioni Ampere si rivolge a un ampio spettro di applicazioni basate su cloud”.
Ampere è anche uno dei membri fondatori dell’azienda recentemente lanciata L’Alleanza per la piattaforma AIcreata appositamente per promuovere una migliore collaborazione e apertura quando si tratta di intelligenza artificiale e in un momento cruciale non solo per il settore tecnologico, ma per il mondo in generale.
Poiché le soluzioni AI possono essere complesse da implementare, l’AI Platform Alliance lavorerà insieme per convalidare soluzioni AI congiunte che forniscano un’alternativa migliore rispetto allo status quo basato su GPU.
Sviluppando queste soluzioni come comunità, questo gruppo accelererà il ritmo dell’innovazione dell’intelligenza artificiale rendendo le piattaforme di intelligenza artificiale più aperte e trasparenti, aumentando l’efficienza dell’intelligenza artificiale per risolvere i problemi del mondo reale e fornendo infrastrutture sostenibili su larga scala che siano rispettose dell’ambiente e socialmente responsabile.
“Siamo in prima linea e sosteniamo attivamente una maggiore efficienza nell’intelligenza artificiale e oltre”, afferma Jakubiuk, che interverrà al prossimo Evento globale AI & Big Data Expo a Londra, dal 30 novembre al 1 dicembre.
Guardando al futuro, Jakubiuk immagina un futuro in cui l’efficienza regnerà sovrana. “Il futuro dell’informatica risiede in una maggiore efficienza energetica. La nostra incessante ricerca è quella di promuovere l’efficienza tra i carichi di lavoro, spingendo il mondo verso una maggiore efficienza”, afferma. Il futuro è luminoso poiché l’azienda continua a spingere verso l’abilitazione del cloud sostenibile.
Puoi scoprire di più sulle soluzioni scalabili di Ampere Qui.
Fonte: www.artificialintelligence-news.com