Amazon Web Services ha ottenuto un’altra importante vittoria per i suoi acceleratori personalizzati AWS Trainium dopo aver stretto un accordo con la startup di video AI Decart. La partnership vedrà Decart ottimizzare il suo modello di punta Lucy su AWS Trainium3 per supportare la generazione di video in tempo reale ed evidenziare la crescente popolarità degli acceleratori AI rispetto alle unità di elaborazione grafica di Nvidia.
Decart sta essenzialmente andando all-in su AWS e, come parte dell’accordo, l’azienda realizzerà anche i suoi modelli disponibile attraverso la piattaforma Amazon Bedrock. Gli sviluppatori possono integrare le funzionalità di generazione video in tempo reale di Decart in quasi tutte le applicazioni cloud senza preoccuparsi dell’infrastruttura sottostante.
La distribuzione tramite Bedrock aumenta le capacità plug-and-play di AWS, dimostrando la fiducia di Amazon nella crescente domanda di video AI in tempo reale. Consente inoltre a Decart di espandere la portata e aumentare l’adozione nella comunità degli sviluppatori. AWS Trainium fornisce a Lucy la potenza di elaborazione aggiuntiva necessaria per generare video ad alta fedeltà senza sacrificare la qualità o la latenza.
Acceleratori IA personalizzati come Trainium fornire un’alternativa alle GPU Nvidia per carichi di lavoro AI. Sebbene Nvidia domini ancora il mercato dell’intelligenza artificiale, con le sue GPU che elaborano la stragrande maggioranza dei carichi di lavoro dell’intelligenza artificiale, si trova ad affrontare una crescente minaccia da parte dei processori personalizzati.
Perché tutto questo trambusto sugli acceleratori IA?
AWS Trainium non è l’unica opzione a disposizione degli sviluppatori. La linea di prodotti Tensor Processing Unit (TPU) di Google e i chip Training and Inference Accelerator (MTIA) di Meta sono altri esempi di silicio personalizzato, ciascuno con un vantaggio simile rispetto alle GPU di Nvidia: la loro architettura ASIC (circuito integrato specifico per l’applicazione). Come suggerisce il nome, l’hardware ASIC è progettato specificamente per gestire un tipo di applicazione e lo fanno in modo più efficiente rispetto ai processori generici.
Mentre le unità di elaborazione centrale sono generalmente considerate il coltellino svizzero del mondo informatico grazie alla loro capacità di gestire più applicazioni, le GPU sono più simili a un potente trapano elettrico. Sono molto più potenti delle CPU, progettate per elaborare enormi quantità di calcoli paralleli ripetitivi, rendendole adatte per applicazioni di intelligenza artificiale e attività di rendering grafico.
Se la GPU è un trapano elettrico, l’ASIC potrebbe essere considerato un bisturi, progettato per procedure estremamente precise. Quando costruiscono ASIC, i produttori di chip eliminano tutte le unità funzionali irrilevanti per l’attività per una maggiore efficienza: tutte le loro operazioni sono dedicate all’attività.
Ciò comporta enormi vantaggi in termini di prestazioni ed efficienza energetica rispetto alle GPU e potrebbe spiegare la loro crescente popolarità. Un esempio calzante è Anthropic, che ha collaborato con AWS su Project Rainier, un enorme cluster composto da centinaia di migliaia di processori Trainium2.
Anthropic afferma che Project Rainier gli fornirà centinaia di exaflop di potenza di calcolo per eseguire i suoi modelli di intelligenza artificiale più avanzati, incluso Claude Opus-4.5.
Anche la startup di codifica AI Poolside lo è utilizzando AWS Trainium2 per addestrare i suoi modelli e prevede di utilizzare la sua infrastruttura anche per l’inferenza in futuro. Nel frattempo, Anthropic sta cercando di proteggere le sue scommesse, cercando anche di addestrare i futuri modelli Claude su un cluster fino a un milione di TPU di Google. Secondo quanto riferito, Meta Platforms collaborando con Broadcom per sviluppare un processore AI personalizzato per addestrare ed eseguire i suoi modelli Llama, e OpenAI lo ha fatto piani simili.
Il vantaggio del Trainium
Decart ha scelto AWS Trainium2 per le sue prestazioni, che consentono a Decart di raggiungere la bassa latenza richiesta dai modelli video in tempo reale. Lucy ha un time-to-first-frame di 40 ms, il che significa che inizia a generare video quasi immediatamente dopo la richiesta. Semplificando l’elaborazione video su Trainium, Lucy può anche eguagliare la qualità di modelli video molto più lenti e consolidati come Sora 2 di OpenAI e Veo-3 di Google, con Decart che genera output fino a 30 fps.
Decart crede che Lucy migliorerà. Nell’ambito del suo accordo con AWS, la società ha ottenuto l’accesso anticipato al nuovo prodotto annunciato Processore Trainium3capace di output fino a 100 fps e latenza inferiore. “L’architettura di nuova generazione di Trainium3 offre un throughput più elevato, una latenza inferiore e una maggiore efficienza della memoria, consentendoci di ottenere una generazione di frame fino a 4 volte più veloce alla metà del costo delle GPU”, ha affermato in una nota il co-fondatore e CEO di Decart Dean Leitersdorf.
Nvidia potrebbe non essere troppo preoccupata per i processori AI personalizzati. Si dice che lo sia il gigante dei chip AI progettarne uno proprio Chip ASIC per competere con i concorrenti del cloud. Inoltre, gli ASIC non sostituiranno completamente le GPU, poiché ogni chip ha i suoi punti di forza. La flessibilità delle GPU fa sì che rimangano l’unica vera opzione per modelli generici come GPT-5 e Gemini 3 e siano ancora dominanti nell’addestramento dell’IA. Tuttavia, molte applicazioni IA hanno requisiti di elaborazione stabili, il che significa che sono particolarmente adatte all’esecuzione su ASIC.
Si prevede che l’ascesa dei processori IA personalizzati avrà un profondo impatto sul settore. Spingendo la progettazione dei chip verso una maggiore personalizzazione e migliorando le prestazioni di applicazioni specializzate, stanno ponendo le basi per una nuova ondata di innovazione dell’intelligenza artificiale, con video in tempo reale in prima linea.
Fonte: www.artificialintelligence-news.com
