OpenAI è impegnata in una spesa sfrenata per proteggere la propria catena di fornitura di elaborazione IA, firmando un nuovo accordo con AWS come parte della sua strategia multi-cloud.
La società ha recentemente concluso la sua esclusiva partnership di cloud computing con Microsoft. Da allora ha stanziato 250 miliardi di dollari torniamo a Microsoft$ 300 miliardi ad Oracoloe ora, 38 miliardi di dollari ad Amazon Web Services (AWS) in un nuovo patto pluriennale. Questo accordo da 38 miliardi di dollari con AWS, sebbene il più piccolo dei tre, fa parte del piano di diversificazione di OpenAI.
Per i leader del settore, le azioni di OpenAI dimostrano che l’accesso a GPU ad alte prestazioni non è più un bene on-demand. Oggi è una risorsa scarsa che richiede un massiccio impegno di capitale a lungo termine.
L’accordo AWS fornisce a OpenAI l’accesso a centinaia di migliaia di GPU NVIDIA, inclusi i nuovi GB200 e GB300, e la possibilità di sfruttare decine di milioni di CPU.
Questa potente infrastruttura non serve solo per addestrare i modelli di domani; è necessario per eseguire gli enormi carichi di lavoro di inferenza del ChatGPT di oggi. Come ha affermato Sam Altman, cofondatore e CEO di OpenAI, “la scalabilità dell’AI di frontiera richiede un’elaborazione massiccia e affidabile”.
Questa spesa sfrenata sta imponendo una risposta competitiva da parte degli hyperscaler. Sebbene AWS rimanga il più grande fornitore di servizi cloud del settore, Microsoft e Google hanno recentemente registrato una crescita più rapida dei ricavi del cloud, spesso acquisendo nuovi clienti IA. Questo accordo con AWS è un chiaro tentativo di proteggere un carico di lavoro fondamentale dell’intelligenza artificiale e di dimostrare le sue capacità di intelligenza artificiale su larga scala, che secondo lui includono l’esecuzione di cluster di oltre 500.000 chip.
AWS non fornisce solo server standard. Sta costruendo un’architettura sofisticata e appositamente creata per OpenAI, utilizzando gli UltraServer EC2 per collegare le GPU per la rete a bassa latenza richiesta dalla formazione su larga scala.
“L’ampiezza e la disponibilità immediata di elaborazione ottimizzata dimostra perché AWS è in una posizione unica per supportare i vasti carichi di lavoro AI di OpenAI”, ha affermato Matt Garman, CEO di AWS.
Ma “immediato” è relativo. L’intera capacità derivante dall’ultimo accordo di IA cloud di OpenAI non sarà completamente implementata fino alla fine del 2026, con opzioni per espandersi ulteriormente nel 2027. Questa sequenza temporale offre una dose di realismo per qualsiasi dirigente che pianifica un’implementazione dell’IA: la catena di fornitura dell’hardware è complessa e opera su programmi pluriennali.
Cosa dovrebbero trarre allora i leader aziendali da tutto ciò?
Innanzitutto, il dibattito “costruire vs. acquistare” per le infrastrutture IA è quasi finito. OpenAI sta spendendo centinaia di miliardi per costruire sull’hardware noleggiato. Poche altre aziende, se non nessuna, possono o dovrebbero seguire l’esempio. Ciò spinge saldamente il resto del mercato verso piattaforme gestite come Amazon Bedrock, Google Vertex AI o IBM Watsonx, dove gli hyperscaler assorbono questo rischio infrastrutturale.
In secondo luogo, i giorni del sourcing single-cloud per i carichi di lavoro AI potrebbero essere contati. Il perno di OpenAI verso un modello multi-provider è un caso da manuale di mitigazione del rischio di concentrazione. Per un CIO, fare affidamento su un unico fornitore per l’elaborazione che esegue un processo aziendale principale sta diventando una scommessa.
Infine, il budget basato sull’intelligenza artificiale ha lasciato il regno dell’IT dipartimentale ed è entrato nel mondo della pianificazione del capitale aziendale. Queste non sono più spese operative variabili. Garantire l’elaborazione basata sull’intelligenza artificiale è ora un impegno finanziario a lungo termine, proprio come costruire una nuova fabbrica o un nuovo data center.
Vedi anche: Qualcomm svela i chip per data center AI per sfondare il mercato dell’inferenza

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informaticaclic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
