Il rilascio dell’ultimo modello Qwen di Alibaba sfida l’economia del modello AI proprietario con prestazioni comparabili su hardware di base.
Mentre i laboratori con sede negli Stati Uniti hanno storicamente detenuto il vantaggio in termini di prestazioni, le alternative open source come la serie Qwen 3.5 stanno colmando il divario con i modelli di frontiera. Ciò offre alle aziende una potenziale riduzione dei costi di inferenza e una maggiore flessibilità nell’architettura di distribuzione.
La narrazione centrale della versione Qwen 3.5 è questo allineamento tecnico con i principali sistemi proprietari. Alibaba prende esplicitamente di mira i benchmark stabiliti dai modelli statunitensi ad alte prestazioni, tra cui GPT-5.2 e Claude 4.5. Questo posizionamento indica l’intenzione di competere direttamente sulla qualità della produzione piuttosto che solo sul prezzo o sull’accessibilità.
L’esperto di tecnologia Anton P. afferma che il modello “sta scambiando colpi con Claude Opus 4.5 e GPT-5.2 su tutta la linea”. Aggiunge che il modello “batte i modelli di frontiera nell’esplorazione, nel ragionamento e nel seguire le istruzioni”.
Convergenza delle prestazioni di Alibaba Qwen con modelli chiusi
Per le imprese, questa parità di prestazioni suggerisce che i modelli open-weight non sono più destinati esclusivamente a casi d’uso sperimentali o a posta in gioco bassa. Stanno diventando validi candidati per la logica aziendale principale e per compiti di ragionamento complessi.
Il modello di punta Alibaba Qwen contiene 397 miliardi di parametri ma utilizza un’architettura più efficiente con solo 17 miliardi di parametri attivi. Questo metodo di attivazione sparso, spesso associato alle architetture Mixture-of-Experts (MoE), consente prestazioni elevate senza la penalità computazionale dell’attivazione di ogni parametro per ogni token.
Questa scelta architetturale si traduce in miglioramenti della velocità. Shreyasee Majumder, analista di social media presso GlobalDataevidenzia un “enorme miglioramento nella velocità di decodifica, che è fino a diciannove volte più veloce rispetto alla precedente versione di punta”.
Una decodifica più rapida si traduce in definitiva in una minore latenza nelle applicazioni rivolte all’utente e in una riduzione dei tempi di elaborazione per l’elaborazione batch.
La versione funziona con una licenza Apache 2.0. Questo modello di licenza consente alle aziende di eseguire il modello sulla propria infrastruttura, mitigando i rischi sulla privacy dei dati associati all’invio di informazioni sensibili ad API esterne.
I requisiti hardware per Qwen 3.5 sono relativamente accessibili rispetto alle generazioni precedenti di modelli di grandi dimensioni. L’architettura efficiente consente agli sviluppatori di eseguire il modello su hardware personale, come Mac Ultra.
David Hendrickson, amministratore delegato di Soluzioni GenerAIteosserva che il modello è disponibile su OpenRouter per “token da 3,6 dollari/1 milione”, un prezzo che, secondo lui, è “un affare”.
La serie Qwen 3.5 di Alibaba introduce funzionalità multimodali native. Ciò consente al modello di elaborare e ragionare su diversi tipi di dati senza fare affidamento su moduli separati e imbullonati. Majumder sottolinea la “capacità di navigare autonomamente tra le applicazioni attraverso la visualizzazione agentico capacità”.
Qwen 3.5 supporta anche una finestra di contesto di un milione di token nella sua versione ospitata. Le ampie finestre di contesto consentono l’elaborazione di documenti, basi di codice o record finanziari estesi in un unico prompt.
Se ciò non bastasse, il modello include anche il supporto nativo per 201 lingue. Questa ampia copertura linguistica aiuta le imprese multinazionali a implementare soluzioni di intelligenza artificiale coerenti in diversi mercati regionali.
Considerazioni per l’implementazione
Sebbene le specifiche tecniche siano promettenti, l’integrazione richiede la dovuta diligenza. TP Huang nota di aver “trovato che i modelli Qwen più grandi non erano poi così eccezionali” in passato, anche se la nuova versione di Alibaba sembra “ragionevolmente migliore”.
Anton P. fornisce un avvertimento necessario per gli adottanti aziendali: “Benchmark sono punti di riferimento. La vera prova è la produzione”.
I leader devono anche considerare l’origine geopolitica della tecnologia. Poiché il modello proviene da Alibaba, i team di governance dovranno valutare i requisiti di conformità relativi alle catene di fornitura del software. Tuttavia, la natura open-weight della versione consente l’ispezione del codice e l’hosting locale, il che mitiga alcuni problemi di sovranità dei dati rispetto alle API chiuse.
Il rilascio di Qwen 3.5 da parte di Alibaba impone una decisione. Anton P. afferma che i modelli a peso aperto “sono passati dal ‘recupero’ al ‘leader’ più velocemente di quanto chiunque avesse previsto”.
Per l’azienda, la decisione è se continuare a pagare premi per modelli proprietari ospitati negli Stati Uniti o investire nelle risorse ingegneristiche necessarie per sfruttare alternative open source capaci ma a costi inferiori.
Vedi anche: Alibaba entra nella corsa all’intelligenza artificiale fisica con il modello di robot open source RynnBrain

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
