Mentre i giganti della tecnologia investono miliardi in potenza di calcolo per addestrare modelli di intelligenza artificiale di frontiera, la cinese DeepSeek ha ottenuto risultati comparabili lavorando in modo più intelligente, non di più. Il modello AI DeepSeek V3.2 corrisponde al GPT-5 di OpenAI nei benchmark di ragionamento nonostante utilizzi “meno FLOP di formazione totali”: una svolta che potrebbe rimodellare il modo in cui l’industria pensa alla costruzione di un’intelligenza artificiale avanzata.
Per le imprese, il comunicato dimostra che le capacità di intelligenza artificiale di frontiera non necessitano necessariamente di budget informatici su scala di frontiera. La disponibilità open source di DeepSeek V3.2 consente alle organizzazioni di valutare capacità avanzate di ragionamento e agenti mantenendo il controllo sull’architettura di distribuzione: una considerazione pratica poiché l’efficienza in termini di costi diventa sempre più centrale nelle strategie di adozione dell’intelligenza artificiale.
Lunedì il laboratorio con sede a Hangzhou ha rilasciato due versioni: la base DeepSeek V3.2 e DeepSeek-V3.2-Speciale, con quest’ultima che ha ottenuto la medaglia d’oro alle Olimpiadi internazionali della matematica del 2025 e alle Olimpiadi internazionali dell’informatica, parametri di riferimento precedentemente raggiunti solo da modelli interni inediti delle principali società statunitensi di intelligenza artificiale.
IL realizzazione è particolarmente significativo dato l’accesso limitato di DeepSeek ai chip semiconduttori avanzati a causa delle restrizioni all’esportazione.
L’efficienza delle risorse come vantaggio competitivo
Il risultato di DeepSeek contraddice l’ipotesi prevalente nel settore secondo cui le prestazioni dell’intelligenza artificiale di frontiera richiedono risorse computazionali su larga scala. L’azienda attribuisce questa efficienza alle innovazioni architetturali, in particolare DeepSeek Sparse Attention (DSA), che riduce sostanzialmente la complessità computazionale preservando le prestazioni del modello.
Il modello AI base di DeepSeek V3.2 ha raggiunto una precisione del 93,1% sui problemi di matematica AIME 2025 e una valutazione Codeforces di 2386, posizionandolo accanto a GPT-5 nei benchmark di ragionamento.
La variante Speciale ha avuto ancora più successo, ottenendo un punteggio del 96,0% all’American Invitational Mathematics Examination (AIME) 2025, il 99,2% all’Harvard-MIT Mathematics Tournament (HMMT) di febbraio 2025 e ottenendo la medaglia d’oro sia alle Olimpiadi internazionali di matematica del 2025 che alle Olimpiadi internazionali di informatica.
I risultati sono particolarmente significativi dato l’accesso limitato di DeepSeek alla serie di tariffe e restrizioni all’esportazione che colpiscono la Cina. Il rapporto tecnico rivela che l’azienda ha stanziato un budget computazionale post-formazione superiore al 10% dei costi pre-formazione: un investimento sostanziale che ha consentito capacità avanzate attraverso l’ottimizzazione dell’apprendimento per rinforzo piuttosto che il ridimensionamento della forza bruta.
L’innovazione tecnica guida l’efficienza
Il meccanismo DSA rappresenta un allontanamento dalle tradizionali architetture di attenzione. Invece di elaborare tutti i token con la stessa intensità computazionale, DSA utilizza un “indicizzatore fulmineo” e un meccanismo di selezione dei token a grana fine che identifica ed elabora solo le informazioni più rilevanti per ciascuna query.
L’approccio riduce la complessità dell’attenzione centrale da O(L²) a O(Lk), dove k rappresenta il numero di token selezionati, una frazione della lunghezza totale della sequenza L. Durante il pre-addestramento continuo dal checkpoint DeepSeek-V3.1-Terminus, l’azienda ha addestrato DSA in 943,7 miliardi di token utilizzando 480 sequenze di 128.000 token per fase di addestramento.
L’architettura introduce anche una gestione del contesto su misura per gli scenari di chiamata degli strumenti. A differenza dei modelli di ragionamento precedenti che scartavano il contenuto pensante dopo ogni messaggio dell’utente, il modello AI di DeepSeek V3.2 conserva le tracce del ragionamento quando vengono aggiunti solo i messaggi relativi allo strumento, migliorando l’efficienza dei token nei flussi di lavoro degli agenti a più turni eliminando il ri-ragionamento ridondante.
Applicazioni aziendali e prestazioni pratiche
Per le organizzazioni che valutano l’implementazione dell’intelligenza artificiale, l’approccio di DeepSeek offre vantaggi concreti oltre i punteggi dei benchmark. Su Terminal Bench 2.0, che valuta le capacità del flusso di lavoro di codifica, DeepSeek V3.2 ha raggiunto una precisione del 46,4%.
Il modello ha ottenuto un punteggio del 73,1% su SWE-Verified, un benchmark per la risoluzione dei problemi di ingegneria del software, e del 70,2% su SWE Multilingual, dimostrando utilità pratica negli ambienti di sviluppo.
Nelle attività agentiche che richiedono l’uso autonomo degli strumenti e il ragionamento in più fasi, il modello ha mostrato miglioramenti significativi rispetto ai precedenti sistemi open source. L’azienda ha sviluppato una pipeline di sintesi di attività agenti su larga scala che ha generato oltre 1.800 ambienti distinti e 85.000 suggerimenti complessi, consentendo al modello di generalizzare le strategie di ragionamento a scenari di utilizzo degli strumenti non familiari.
DeepSeek ha reso open source il modello base V3.2 su Hugging Face, consentendo alle aziende di implementarlo e personalizzarlo senza dipendenze dai fornitori. La variante Speciale rimane accessibile solo tramite API a causa dei requisiti di utilizzo dei token più elevati: un compromesso tra massime prestazioni ed efficienza di distribuzione.
Implicazioni e riconoscimenti del settore
Il rilascio ha generato una discussione sostanziale nella comunità di ricerca sull’intelligenza artificiale. Susan Zhang, principale ingegnere di ricerca presso Google DeepMind, ha elogiato la documentazione tecnica dettagliata di DeepSeek, evidenziando in particolare il lavoro dell’azienda per stabilizzare i modelli post-formazione e migliorare le capacità degli agenti.
I tempi che precedono la Conferenza sui sistemi di elaborazione delle informazioni neurali hanno amplificato l’attenzione. Florian Brand, un esperto dell’ecosistema AI open source cinese che ha partecipato a NeurIPS a San Diego, ha notato la reazione immediata: “Tutte le chat di gruppo oggi erano piene dopo l’annuncio di DeepSeek.”
Limitazioni riconosciute e percorso di sviluppo
Il rapporto tecnico di DeepSeek affronta le attuali lacune rispetto ai modelli di frontiera. L’efficienza dei token rimane impegnativa: il modello AI DeepSeek V3.2 richiede in genere traiettorie di generazione più lunghe per eguagliare la qualità di output di sistemi come Gemini 3 Pro. L’azienda riconosce inoltre che l’ampiezza della conoscenza mondiale è in ritardo rispetto ai principali modelli proprietari a causa del minor calcolo totale della formazione.
Le priorità di sviluppo futuro includono il ridimensionamento delle risorse computazionali pre-formazione per espandere la conoscenza del mondo, l’ottimizzazione dell’efficienza della catena di ragionamento per migliorare l’uso dei token e il perfezionamento dell’architettura di base per compiti complessi di risoluzione dei problemi.
Vedi anche: La realtà aziendale dell’intelligenza artificiale: cosa devono sapere i leader aziendali

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
