Il laboratorio di chip di Amazon sforna un flusso costante di innovazione ad Austin, Texas. Un nuovo design di server è stato messo alla prova da un gruppo di ingegneri devoti il 26 luglio.
Durante una visita alla struttura di Austin, il dirigente di Amazon Rami Sinno ha fatto luce sull'uso dei chip AI di Amazon da parte del server. Questo sviluppo è un passo coraggioso verso la competizione con Nvidia, l'attuale leader nel settore.
Il motivo principale per cui Amazon sta sviluppando il proprio processore è questo: non vuole affidarsi a Nvidia e acquistare i chip dell'azienda. I costosi chip Nvidia alimentano una parte importante del business cloud AI di Amazon Web Services. Questo business è il motore di crescita più significativo dell'azienda. Quindi, la cosiddetta “tassa Nvidia” stava spingendo l'azienda a cercare un'opzione più economica.
Il programma di sviluppo chip di Amazon ha un duplice scopo. In primo luogo, il progetto è pensato per offrire ai clienti opportunità più accessibili per calcoli complessi e grandi volumi di elaborazione dati. In secondo luogo, l'iniziativa è stata sviluppata per preservare la competitività di Amazon nel volatile settore del cloud computing e dell'intelligenza artificiale. Questa mossa è stata supportata anche dalle indicazioni di giganti della tecnologia come Microsoft e Alphabet, che stanno sviluppando chip personalizzati per mantenere la loro leadership nel mercato.
Rami Sinno, direttore dell'ingegneria per Annapurna Labs di Amazon, un elemento chiave dell'ecosistema AWS, ha sottolineato che la domanda dei clienti per soluzioni più economiche per i prodotti Nvidia è in crescita. L'acquisizione di Annapurna Labs nel 2015 è stata una mossa astuta da parte di Amazon, in quanto ha consentito all'azienda di gettare le basi per iniziare a sviluppare chip popolari.
Sebbene i chip di Amazon per l'intelligenza artificiale siano ancora agli inizi, l'azienda produce e perfeziona chip per altre applicazioni tradizionali da quasi un decennio, in particolare il suo chip per uso generale, Graviton, che è ora alla quarta generazione. Amazon ha annunciato che i suoi chip Trainium e Inferentia, gli ultimi e più potenti dell'azienda, sono ancora agli inizi e sono processori appositamente progettati.
L'impatto è potenzialmente enorme perché le prestazioni impressionanti sottolineano i report di David Brown, vicepresidente di elaborazione e networking presso AWS. In quest'ottica, si dovrebbe riconoscere che i chip interni di Amazon potrebbero offrire un miglioramento del rapporto prezzo-prestazioni fino al 40-50% rispetto alle soluzioni basate su Nvidia. A sua volta, questo potenziale miglioramento potrebbe significare notevoli risparmi per la clientela AWS che distribuisce i propri carichi di lavoro AI.
L'importanza di AWS per l'attività complessiva di Amazon non può essere sottovalutata. Nel primo trimestre di quest'anno, AWS ha rappresentato poco meno di un quinto del fatturato totale di Amazon, con le sue vendite salite del 17 percento anno su anno fino a raggiungere i 25 miliardi di dollari. Al momento, AWS detiene circa un terzo del mercato globale del cloud computing e Azure di Microsoft ne copre circa un quarto, ovvero il 25%.
L'impegno di Amazon per la sua strategia di chip personalizzati è stato dimostrato durante il recente Prime Day, un evento di vendita di due giorni su Amazon.com. Per gestire il livello molto elevato di acquisti e streaming di video, musica e altri contenuti, Amazon ha distribuito ben 250.000 chip Graviton e 80.000 dei suoi chip AI personalizzati sulle sue piattaforme. Adobe Analytics ha annunciato risultati record per il Prime Day pari a 14,2 miliardi di dollari di vendite.
Sembra che mentre Amazon intensifica il suo lavoro sullo sviluppo di chip AI, il leader del settore, Nvidia, non rimarrà allo stesso livello. Il CEO di Nvidia, Jensen Huang, ha presentato Gli ultimi chip Blackwell di Nvidiala cui uscita è prevista più avanti nel corso dell'anno. Le loro prestazioni sono aumentate in modo significativo e Huang ha promesso che i nuovi chip sono due volte più potenti per l'addestramento dei modelli AI e cinque volte più veloci per l'inferenza.
La posizione dominante di Nvidia nel mercato dei chip AI è sottolineata dal suo impressionante elenco di clienti, che include giganti della tecnologia come Amazon, Google, Microsoft, OpenAI e Meta. L'attenzione dell'azienda sull'AI ha spinto il suo valore di mercato a un incredibile $ 2 trilioni, rendendola la terza azienda più preziosa a livello globale, dietro solo a Microsoft e Apple.
Mentre la corsa ai chip AI si intensifica, Nvidia sta anche diversificando la sua offerta. L'azienda ha introdotto nuovi strumenti software per facilitare l'integrazione dell'AI in vari settori e sta sviluppando chip specializzati per applicazioni emergenti come chatbot in auto e robot umanoidi.
(Immagine di Gerd Altmann)
Guarda anche: Nvidia: l'azienda più preziosa al mondo sotto attacco dell'antitrust francese
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera AI e Big Data che si svolge ad Amsterdam, California e Londra. L'evento completo è co-localizzato con altri eventi leader tra cui Conferenza sull'automazione intelligente, BloccoX, Settimana della Trasformazione DigitaleE Fiera della sicurezza informatica e del cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com