Modello AI da trilioni di parametri: lancio Ling-1T di Ant Group

 | Intelligenza-Artificiale

Ant Group ha inserito l’arena del modello di intelligenza artificiale da trilioni di parametri con Ling-1T, un nuovo modello linguistico open source che il colosso fintech cinese posiziona come una svolta nel bilanciare l’efficienza computazionale con capacità di ragionamento avanzate.

L’annuncio del 9 ottobre segna una pietra miliare significativa per l’operatore Alipay, che ha rapidamente sviluppato la propria infrastruttura di intelligenza artificiale su molteplici architetture di modelli.

Il modello di intelligenza artificiale da trilioni di parametri dimostra prestazioni competitive su compiti complessi di ragionamento matematico, raggiungendo una precisione del 70,42% sul benchmark 2025 American Invitational Mathematics Examination (AIME), uno standard utilizzato per valutare le capacità di risoluzione dei problemi dei sistemi di intelligenza artificiale.

Secondo le specifiche tecniche di Ant Group, Ling-1T mantiene questo livello di prestazioni consumando una media di oltre 4.000 token di output per problema, posizionandolo accanto a quelli che l’azienda descrive come “modelli AI migliori della categoria” in termini di qualità dei risultati.

Approccio su due fronti al progresso dell’intelligenza artificiale

Il rilascio del modello di intelligenza artificiale da trilioni di parametri coincide con il lancio di dInfer da parte di Ant Group, un framework di inferenza specializzato progettato per modelli di linguaggio di diffusione. Questa strategia di rilascio parallelo riflette la scommessa dell’azienda su molteplici approcci tecnologici piuttosto che su un unico paradigma architetturale.

I modelli del linguaggio di diffusione rappresentano un allontanamento dai sistemi autoregressivi su cui si basano i chatbot ampiamente utilizzati come ChatGPT. A differenza della generazione sequenziale di testo, i modelli di diffusione producono output in parallelo, un approccio già prevalente negli strumenti di generazione di immagini e video ma meno comune nell’elaborazione del linguaggio.

I parametri prestazionali di Ant Group per dInfer suggeriscono sostanziali miglioramenti in termini di efficienza. I test sul modello di diffusione LLaDA-MoE dell’azienda hanno prodotto 1.011 token al secondo sul benchmark di codifica HumanEval, contro 91 token al secondo per il framework Fast-dLLM di Nvidia e 294 per il modello Qwen-2.5-3B di Alibaba in esecuzione su infrastruttura vLLM.

“Crediamo che dInfer fornisca sia un kit di strumenti pratici che una piattaforma standardizzata per accelerare la ricerca e lo sviluppo nel campo in rapida crescita dei dLLM”, hanno osservato i ricercatori di Ant Group nella documentazione tecnica di accompagnamento.

Espansione dell’ecosistema oltre i modelli linguistici

Il modello di intelligenza artificiale da trilioni di parametri Ling-1T si trova all’interno di una famiglia più ampia di sistemi di intelligenza artificiale che Ant Group ha assemblato negli ultimi mesi.

Il portafoglio dell’azienda comprende ora tre serie principali: i modelli non pensanti Ling per compiti linguistici standard, i modelli pensanti Ring progettati per ragionamenti complessi (inclusa l’anteprima Ring-1T precedentemente rilasciata) e i modelli multimodali Ming in grado di elaborare immagini, testo, audio e video.

Questo approccio diversificato si estende a un modello sperimentale denominato LLaDA-MoE, che impiega l’architettura Mixture-of-Experts (MoE), una tecnica che attiva solo parti rilevanti di un grande modello per compiti specifici, teoricamente migliorando l’efficienza.

He Zhengyu, chief technology officer di Ant Group, ha articolato il posizionamento dell’azienda attorno a questi rilasci. “In Ant Group, crediamo che l’Intelligenza Generale Artificiale (AGI) dovrebbe essere un bene pubblico, una pietra miliare condivisa per il futuro intelligente dell’umanità”, ha affermato, aggiungendo che le versioni open source sia del modello AI da trilioni di parametri che dell’anteprima Ring-1T rappresentano passi verso un “avanzamento aperto e collaborativo”.

Dinamiche competitive in un ambiente limitato

I tempi e la natura dei rilasci di Ant Group illuminano i calcoli strategici all’interno del settore dell’intelligenza artificiale cinese. Con l’accesso alla tecnologia all’avanguardia dei semiconduttori limitato dalle restrizioni all’esportazione, le aziende tecnologiche cinesi hanno sempre più enfatizzato l’innovazione algoritmica e l’ottimizzazione del software come differenziatori competitivi.

ByteDance, società madre di TikTok, ha introdotto in modo simile un modello di linguaggio di diffusione chiamato Seed Diffusion Preview a luglio, sostenendo miglioramenti di velocità cinque volte superiori rispetto ad architetture autoregressive comparabili. Questi sforzi paralleli suggeriscono un interesse a livello di settore per paradigmi di modelli alternativi che potrebbero offrire vantaggi in termini di efficienza.

Tuttavia, la traiettoria pratica di adozione dei modelli linguistici di diffusione rimane incerta. I sistemi autoregressivi continuano a dominare le implementazioni commerciali grazie alle comprovate prestazioni nella comprensione e generazione del linguaggio naturale, i requisiti fondamentali per le applicazioni rivolte ai clienti.

Strategia open source come posizionamento sul mercato

Rendendo pubblicamente disponibile il modello di intelligenza artificiale da trilioni di parametri insieme al framework dInfer, Ant Group sta perseguendo un modello di sviluppo collaborativo che contrasta con gli approcci chiusi di alcuni concorrenti.

Questa strategia accelera potenzialmente l’innovazione posizionando le tecnologie di Ant come infrastrutture fondamentali per la più ampia comunità di intelligenza artificiale.

L’azienda sta contemporaneamente sviluppando AWorld, un framework destinato a supportare l’apprendimento continuo negli agenti di intelligenza artificiale autonomi, sistemi progettati per completare le attività in modo indipendente per conto degli utenti.

Il fatto che questi sforzi combinati possano affermare Ant Group come una forza significativa nello sviluppo globale dell’intelligenza artificiale dipende in parte dalla convalida nel mondo reale delle prestazioni dichiarate e in parte dai tassi di adozione tra gli sviluppatori che cercano alternative alle piattaforme consolidate.

La natura open source del modello di intelligenza artificiale da trilioni di parametri può facilitare questo processo di convalida, creando allo stesso tempo una comunità di utenti investiti nel successo della tecnologia.

Per ora, i dati dimostrano che le principali aziende tecnologiche cinesi considerano l’attuale panorama dell’intelligenza artificiale sufficientemente fluido da accogliere nuovi concorrenti disposti a innovare su più dimensioni contemporaneamente.

Vedi anche: Ant Group utilizza chip domestici per addestrare modelli di intelligenza artificiale e ridurre i costi

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informaticaclic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *