
L'ultima GPU RTX Pro 6000 Blackwell Server Edition di NVIDIA sarà presto disponibile nei server Enterprise.
I sistemi di Cisco, Dell Technologies, HPE, Lenovo e Supermicro spediranno varie configurazioni nei server 2U. NVIDIA afferma che offriranno prestazioni e efficienza più elevate per AI, grafica, simulazione, analisi e applicazioni industriali e compiti di supporto come la formazione dei modelli di intelligenza artificiale, la creazione di contenuti e la ricerca scientifica.
“L'intelligenza artificiale sta reinventando il calcolo per la prima volta in 60 anni-ciò che è iniziato nel cloud sta ora trasformando l'architettura dei data center locali”, ha affermato Jensen Huang, fondatore e CEO di Nvidia. “Con i principali provider di server del mondo, stiamo rendendo i server NVIDIA Blackwell RTX Pro la piattaforma standard per l'intelligenza artificiale e industriale.”
Accelerazione GPU per carichi di lavoro aziendale
Milioni di server vengono venduti ogni anno per le operazioni commerciali, la maggior parte utilizza ancora CPU “tradizionali”. I nuovi server RTX Pro offrono l'accelerazione della GPU dei sistemi, aumentando le prestazioni in analisi, simulazioni, elaborazione video e rendering, afferma la società. NVIDIA afferma che la sua GPU Server Edition può offrire fino a 45 volte prestazioni migliori rispetto ai sistemi solo CPU, con efficienza energetica 18 volte superiore.
La linea RTX Pro è rivolta alle aziende che costruiscono “fabbriche di intelligenza artificiale” in cui lo spazio, il potere e il raffreddamento possono essere limitati. I server forniscono inoltre l'infrastruttura per la piattaforma di dati AI di NVIDIA per i sistemi di archiviazione. Dell, ad esempio, sta aggiornando la sua piattaforma dati AI per utilizzare il design di Nvidia; I suoi server PowerEdge R7725 sono dotati di due GPU RTX Pro 6000, software Enterprise Nvidia AI e networking Nvidia.
I nuovi server 2U, che possono ospitare fino a otto unità GPU, erano tra quelli annunciati a maggio a Computex.
Caratteristiche dell'architettura Blackwell
I nuovi server sono costruiti attorno all'architettura Blackwell di Nvidia, che include:
- I nuclei di tensore di quinta generazione e un motore di trasformatore di seconda generazione con precisione FP4, in grado di eseguire un'inferenza fino a sei volte più veloce della GPU L40.
- Tecnologia RTX di quarta generazione per il rendering fotografico, con fino a quattro volte le prestazioni della GPU L40S.
- Tecnologia GPU multi-istanza di virtualizzazione e NVIDIA, consentendo quattro carichi di lavoro separati per GPU.
- Migliore efficienza energetica per un uso inferiore di energia del data center.
Per AI fisico e robotica
Le biblioteche Omniverse di Nvidia e i modelli di Fondazione World Cosmos World sui server RTX PRO possono eseguire simulazioni gemelle digitali, routine di addestramento dei robot e creazione di dati sintetici su larga scala. Supportano anche i progetti di Nvidia Metropolis per la ricerca video e la sintesi e i modelli di linguaggio della visione, tra gli altri strumenti da utilizzare in ambienti fisici.
Nvidia ha aggiornato le sue offerte Omniverse e Cosmos, con nuovi SDK Omniverse e ha aggiunto compatibilità con Mujoco (MJCF) e Descrizione universale della scena (Openusd). La società afferma che ciò consentirà a oltre 250.000 sviluppatori MJCF di eseguire simulazioni robot sulle sue piattaforme. Le nuove biblioteche Omniverse Norec portano lo splatting gaussiano 3D trattato Ray per la costruzione di modelli dai dati dei sensori, mentre i framework Isaac Sim 5.0 e Isaac Lab 2.2 aggiornati-disponibili su GitHub-aggiungono rendering neurale e nuovi schemi a base di OpenUSD per robot e sensori.
Il rendering Norec è già integrato nel simulatore di veicoli autonomi Carla ed è adottato da aziende come Foretellix, che lo sta utilizzando per la generazione di dati di test AV sintetici. Il motore di dati Cinquanta di Voxel51, utilizzato da case automobilistiche come Ford e Porsche, ora supporta Norec. Boston Dynamics, Figure AI, Hexagon e Amazon Dispositivi & Services sono tra quelli che già adottano le biblioteche e i framework.
Cosmos WFMS è stato scaricato oltre due milioni di volte. Il software aiuta a generare dati di addestramento sintetico per robot utilizzando istruzioni di testo, immagine o video. Il nuovo modello di trasferimento-2 cosmos accelera la generazione di dati di immagini da scene di simulazione e input spaziali come mappe di profondità. Aziende come Lightwheel, Moon Surgical e Skild Ai stanno usando Cosmos hanno iniziato a produrre dati di addestramento su vasta scala usando Cosmos Transfer-2.
NVIDIA ha anche introdotto Cosmos Reason, un modello di lingua di visione di 7 miliardi di parametri per aiutare i robot e gli agenti di intelligenza artificiale a combinare conoscenza e comprensione preliminari della fisica. Può automatizzare la cura del set di dati, supportare la pianificazione delle attività del robot a più fasi ed eseguire sistemi di analisi video. I team di robotica e guida di NVIDIA utilizzano il motivo di cosmos per il filtraggio e l'annotazione dei dati, e Uber e Magna l'hanno distribuito in veicoli autonomi, monitoraggio del traffico e sistemi di ispezione industriale.
Agenti di intelligenza artificiale e distribuzioni su larga scala
I server RTX PRO possono eseguire il LAMA NEMOTRON Super, appena annunciato. Quando si eseguono con la precisione NVFP4 su una singola GPU RTX Pro 6000, offrono fino a tre volte migliori prestazioni di prezzo rispetto a FP8 sulle GPU H100 di NVIDIA.
(Foto di Nvidia)
Vedi anche: Nvidia rivendica il titolo di più preziosa azienda su Momentum AI

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com