
Servizi Web di Amazon (AWS) e NVIDIA hanno annunciato una significativa espansione della loro collaborazione strategica presso AWS re:Invent. La collaborazione mira a fornire ai clienti infrastrutture, software e servizi all’avanguardia per alimentare le innovazioni dell’intelligenza artificiale generativa.
La collaborazione riunisce i punti di forza di entrambe le aziende, integrando i più recenti sistemi multi-nodo di NVIDIA con GPU, CPU e software AI di nuova generazione, insieme a tecnologie AWS come la virtualizzazione avanzata Nitro System, l’interconnessione Elastic Fabric Adapter (EFA) e UltraCluster scalabilità.
I punti salienti della collaborazione ampliata includono:
- Introduzione dei superchip NVIDIA GH200 Grace Hopper su AWS:
- AWS diventa il primo fornitore di servizi cloud a offrire i superchip NVIDIA GH200 Grace Hopper con la nuova tecnologia NVLink multinodo.
- La piattaforma multi-nodo NVIDIA GH200 NVL32 consente ai clienti comuni di scalare fino a migliaia di superchip GH200, fornendo prestazioni di classe supercomputer.
- Hosting di NVIDIA DGX Cloud su AWS:
- Collaborazione per ospitare NVIDIA DGX Cloud, un servizio di formazione sull’intelligenza artificiale, su AWS, con GH200 NVL32 per la formazione accelerata di intelligenza artificiale generativa e modelli linguistici di grandi dimensioni.
- Supercomputer del progetto Ceiba:
- Collaborazione al progetto Ceiba, con l’obiettivo di progettare il supercomputer AI basato su GPU più veloce al mondo con 16.384 superchip NVIDIA GH200 e capacità di elaborazione di 65 exaflop.
- Introduzione di nuove istanze Amazon EC2:
- AWS introduce tre nuove istanze Amazon EC2, incluse le istanze P5e basate su GPU NVIDIA H200 Tensor Core per carichi di lavoro HPC e AI generativi su larga scala.
- Innovazioni software:
- NVIDIA introduce software su AWS, come il microservizio NeMo Retriever per chatbot e strumenti di riepilogo e BioNeMo per accelerare la scoperta di farmaci per le aziende farmaceutiche.
Questa collaborazione rappresenta un impegno congiunto per far avanzare il campo dell’intelligenza artificiale generativa, offrendo ai clienti l’accesso a tecnologie e risorse all’avanguardia.
Internamente, i team di robotica e logistica di Amazon utilizzano già la piattaforma Omniverse di NVIDIA per ottimizzare i magazzini in ambienti virtuali prima dell’implementazione nel mondo reale.
L’integrazione delle tecnologie NVIDIA e AWS accelererà lo sviluppo, la formazione e l’inferenza di modelli linguistici di grandi dimensioni e applicazioni di intelligenza artificiale generativa in vari settori.
(Fotografato da ANIRUDH SU Unsplash)
Guarda anche: Inflection-2 batte il PaLM 2 di Google nei benchmark comuni

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Fiera sulla sicurezza informatica e sul cloud E Settimana della trasformazione digitale.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com