Chip per data center AI di Qualcomm: svelati AI200 e AI250

 | Intelligenza-Artificiale

Le guerre dei chip IA hanno appena trovato un nuovo contendente dei pesi massimi. Qualcomm, la società che alimenta miliardi di smartphone in tutto il mondo, ha fatto un salto audace nei chip per data center AI, un mercato in cui Nvidia ha coniato denaro a un ritmo quasi insondabile e dove le fortune aumentano e diminuiscono con promesse di supremazia computazionale.

Il 28 ottobre 2025, Qualcomm ha lanciato la sfida con la sua Soluzioni AI200 e AI250sistemi su scala rack progettati specificamente per carichi di lavoro di inferenza AI. La reazione di Wall Street è stata immediata: il prezzo delle azioni di Qualcomm è salito di circa l’11% mentre gli investitori scommettevano che anche una modesta fetta del mercato in espansione delle infrastrutture IA potrebbe trasformare la traiettoria dell’azienda.

Il lancio del prodotto potrebbe ridefinire l’identità di Qualcomm. Il colosso dei chip di San Diego è da sempre sinonimo di tecnologia mobile, cavalcando l’onda degli smartphone verso il dominio. Ma con quel mercato stagnante, il CEO Cristiano Amon sta piazzando una scommessa calcolata sui chip dei data center AI, sostenuto da una partnership multimiliardaria con una potenza saudita di AI che segnala intenzioni serie.

Due fiches, due scommesse diverse sul futuro

È qui che la strategia di Qualcomm diventa interessante. Invece di rilasciare un singolo prodotto e sperare per il meglio, l’azienda sta proteggendo le sue scommesse con due distinte architetture di chip per data center AI, ciascuna destinata a esigenze e tempistiche di mercato diverse.

L’AI200, in arrivo nel 2026, adotta un approccio pragmatico. Consideratelo come il piede nella porta di Qualcomm: un sistema su scala rack che racchiude 768 GB di memoria LPDDR per scheda.

Questa enorme capacità di memoria è fondamentale per gestire i grandi modelli linguistici e le applicazioni AI multimodali di oggi, affamati di memoria, e Qualcomm scommette che il suo approccio basato sulla memoria a basso costo può battere la concorrenza sul costo totale di proprietà pur garantendo le prestazioni richieste dalle aziende.

Ma l’AI250, previsto per il 2027, è il modello in cui gli ingegneri di Qualcomm hanno davvero sognato in grande. La soluzione introduce un’architettura di calcolo quasi-memory che promette di infrangere le limitazioni convenzionali con una larghezza di banda di memoria effettiva più di 10 volte superiore.

Per i chip dei data center AI, la larghezza di banda della memoria è spesso il collo di bottiglia che determina se il tuo chatbot risponde immediatamente o lascia gli utenti in attesa. L’innovazione di Qualcomm in questo caso potrebbe rappresentare un vero e proprio punto di svolta, ammesso che riesca a mantenere la promessa.

“Con Qualcomm AI200 e AI250, stiamo ridefinendo ciò che è possibile per l’inferenza AI su scala rack”, ha affermato Durga Malladi, SVP e GM della pianificazione tecnologica, soluzioni edge e data center presso Qualcomm Technologies. “Le nuove soluzioni innovative per l’infrastruttura AI consentono ai clienti di implementare l’intelligenza artificiale con un TCO senza precedenti, pur mantenendo la flessibilità e la sicurezza richieste dai moderni data center”.

La vera battaglia: l’economia, non solo la performance

Nella corsa agli armamenti delle infrastrutture IA, le specifiche prestazionali grezze raccontano solo metà della storia. La vera guerra si combatte sui fogli di calcolo, dove gli operatori dei data center calcolano le bollette elettriche, i costi di raffreddamento e il deprezzamento dell’hardware. Qualcomm lo sa, ed è per questo che entrambe le soluzioni di chip per data center IA sono ossessionate dal costo totale di proprietà.

Ogni rack consuma 160 kW di potenza e utilizza il raffreddamento a liquido diretto, una necessità quando si spinge così tanta potenza di calcolo attraverso il silicio. I sistemi utilizzano PCIe per la scalabilità interna ed Ethernet per la connessione di più rack, fornendo flessibilità di implementazione sia che tu stia eseguendo un servizio AI modesto o costruendo il prossimo concorrente ChatGPT.

Anche la sicurezza non è stata un ripensamento; sono integrate funzionalità di elaborazione riservate, rispondendo alla crescente domanda aziendale di protezione di modelli di intelligenza artificiale proprietari e dati sensibili.

La connessione saudita: una convalida da un miliardo di dollari

Gli annunci di partnership nel settore tecnologico possono essere vaghi, ma l’accordo di Qualcomm con Humain ha un certo peso. La società di intelligenza artificiale saudita, sostenuta dallo stato, si è impegnata a implementare 200 megawatt di chip per data center AI di Qualcomm, una cifra che secondo l’analista Stacy Rasgon di Sanford C. Bernstein si traduce in circa 2 miliardi di dollari di entrate per Qualcomm.

2 miliardi di dollari sono trasformativi? Nel contesto dell’accordo da 10 miliardi di dollari con Humain di AMD annunciato lo stesso anno, potrebbe sembrare modesto. Ma per un’azienda che cerca di dimostrare la propria appartenenza al dibattito sull’infrastruttura AI, assicurarsi un importante impegno di implementazione prima ancora che il primo prodotto venga spedito è una conferma che il denaro non può comprare.

“Insieme a Humain, stiamo gettando le basi per un’innovazione trasformativa basata sull’intelligenza artificiale che darà potere alle imprese, alle organizzazioni governative e alle comunità nella regione e a livello globale”, ha dichiarato Amon in una dichiarazione che posiziona Qualcomm non solo come fornitore di chip, ma come partner tecnologico strategico per le economie emergenti dell’intelligenza artificiale.

La collaborazione, annunciata per la prima volta nel maggio 2025, trasforma Qualcomm in un fornitore chiave di infrastrutture per gli ambiziosi servizi di inferenza AI di Humain, un ruolo che potrebbe stabilire progetti di riferimento e modelli di implementazione cruciali per i futuri clienti.

Stack software ed esperienza dello sviluppatore

Al di là delle specifiche hardware, Qualcomm scommette su software user-friendly per accelerarne l’adozione. Lo stack software di intelligenza artificiale dell’azienda supporta i principali framework di apprendimento automatico e promette la “distribuzione con un clic” di modelli da Hugging Face, un popolare repository di modelli di intelligenza artificiale.

Qualcomm AI Inference Suite e Efficient Transformers Library mirano a rimuovere gli ostacoli all’integrazione che storicamente hanno rallentato le implementazioni dell’IA aziendale.

Davide contro Golia (e un altro Golia?)

Cerchiamo di essere onesti su ciò che Qualcomm deve affrontare. La capitalizzazione di mercato di Nvidia ha superato i 4,5 trilioni di dollari, una valutazione che riflette anni di dominio dell’intelligenza artificiale e un ecosistema così radicato che molti sviluppatori non riescono a immaginare di basarsi su nient’altro.

AMD, una volta lo sfidante frammentario, ha visto le sue azioni più che raddoppiare il valore nel 2025, ritagliandosi con successo la propria fetta della torta dell’intelligenza artificiale.

L’arrivo tardivo di Qualcomm alla festa dei chip per data center AI significa combattere una dura battaglia contro i concorrenti che hanno prodotti testati sul campo, stack software maturi e clienti che già eseguono carichi di lavoro di produzione su larga scala.

L’attenzione dell’azienda agli smartphone, una volta il suo più grande punto di forza, ora sembra una visione strategica a tunnel che le ha fatto perdere il boom iniziale dell’infrastruttura AI. Eppure gli analisti di mercato non stanno scrivendo il necrologio di Qualcomm. Timothy Arcuri di UBS ha catturato il sentimento prevalente durante una teleconferenza: “La marea sta salendo così velocemente, e continuerà a salire così velocemente, da sollevare tutte le barche”. Traduzione: il mercato dell’intelligenza artificiale si sta espandendo così rapidamente che c’è spazio per più vincitori, anche per gli ultimi arrivati ​​con tecnologia convincente e prezzi competitivi.

Qualcomm sta giocando a lungo termine, scommettendo che l’innovazione sostenuta nei chip dei data center AI possa gradualmente conquistare i clienti che cercano alternative al duopolio Nvidia-AMD. Per le aziende che valutano le opzioni di infrastruttura AI, l’enfasi di Qualcomm sull’ottimizzazione dell’inferenza, sull’efficienza energetica e sul TCO rappresenta un’alternativa degna di nota, in particolare mentre l’AI200 si avvicina alla data di lancio del 2026.

(Foto di Qualcomm)

Vedi anche: Migrazione dell’intelligenza artificiale da Nvidia a Huawei: opportunità e compromessi

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *