
Google ha introdotto un meccanismo di controllo del ragionamento AI per il suo Gemelli 2.5 Modello flash che consente agli sviluppatori di limitare la quantità di potenza di elaborazione che il sistema spende per la risoluzione dei problemi.
Rilasciata il 17 aprile, questa funzione di “budget pensante” risponde a una sfida del settore in crescita: i modelli AI avanzati spesso analizzano le domande semplici, consumando risorse computazionali inutili e aumentando i costi operativi e ambientali.
Sebbene non rivoluzionario, lo sviluppo rappresenta un passo pratico per affrontare i problemi di efficienza emersi quando le capacità di ragionamento diventano standard nel software commerciale di intelligenza artificiale.
Il nuovo meccanismo consente una calibrazione precisa delle risorse di elaborazione prima di generare risposte, potenzialmente che cambia Come le organizzazioni gestiscono gli impatti finanziari e ambientali della distribuzione dell'IA.
“Il modello ripensa su”, riconosce Tulsee Doshi, direttore della gestione dei prodotti di Gemini. “Per semplici istruzioni, il modello pensa più di quanto non sia necessario.”
L'ammissione rivela la sfida che deve affrontare i modelli di ragionamento avanzato: l'equivalente dell'uso di macchinari industriali per rompere una noce.
Il passaggio alle capacità di ragionamento ha creato conseguenze non intenzionali. Laddove i tradizionali modelli di linguaggio di grandi dimensioni abbiano principalmente i modelli di dati di addestramento, le più recenti iterazioni tentano di risolvere i problemi logicamente, passo dopo passo. Mentre questo approccio produce risultati migliori per compiti complessi, introduce un'inefficienza significativa durante la gestione di query più semplici.
Bilanciamento dei costi e delle prestazioni
Le implicazioni finanziarie del ragionamento non controllato dall'intelligenza artificiale sono sostanziali. Secondo la documentazione tecnica di Google, quando viene attivato il ragionamento completo, la generazione di output diventa circa sei volte più costosi dell'elaborazione standard. Il moltiplicatore di costo crea un potente incentivo per il controllo messo a punto.
Nathan Habib, un ingegnere di abbraccio Face Who studia modelli di ragionamento, descrive il problema come endemico in tutto il settore. “Nella fretta di sfoggiare AI più intelligente, le aziende stanno raggiungendo modelli di ragionamento come martelli anche dove non c'è un chiodo in vista”, ha spiegato a Revisione della tecnologia del MIT.
I rifiuti non sono semplicemente teorici. Habib ha dimostrato come un modello di ragionamento leader, quando ha tentato di risolvere un problema di chimica organica, è rimasto intrappolato in un ciclo ricorsivo, ripetendo “aspetta, ma …” centinaia di volte – essenzialmente sperimentando una rottura computazionale e consumando risorse di elaborazione.
Kate Olszewska, che valuta i modelli di gemelli su DeepMind, ha confermato che i sistemi di Google a volte subiscono problemi simili, rimanendo bloccati in loop che drenano la potenza di calcolo senza migliorare la qualità della risposta.
Meccanismo di controllo granulare
Il controllo di ragionamento dell'IA di Google fornisce agli sviluppatori un grado di precisione. Il sistema offre uno spettro flessibile che va da zero (ragionamento minimo) a 24.576 token di “budget di pensiero” – le unità computazionali che rappresentano l'elaborazione interna del modello. L'approccio granulare consente una distribuzione personalizzata in base a casi d'uso specifici.
Jack Rae, ricercatore principale di DeepMind, afferma che la definizione di livelli di ragionamento ottimali rimane impegnativo: “È davvero difficile trarre un confine, come, qual è il compito perfetto in questo momento per pensare”.
Filosofia dello sviluppo mutevole
L'introduzione del controllo del ragionamento AI segnala potenzialmente un cambiamento nel modo in cui l'intelligenza artificiale si evolve. Dal 2019, le aziende hanno perseguito miglioramenti costruendo modelli più grandi con più parametri e dati di formazione. L'approccio di Google suggerisce un percorso alternativo incentrato sull'efficienza piuttosto che sulla scala.
“Le leggi di ridimensionamento vengono sostituite”, afferma Habib, indicando che potrebbero emergere progressi futuri dall'ottimizzazione dei processi di ragionamento piuttosto che dall'espansione continua della dimensione del modello.
Le implicazioni ambientali sono ugualmente significative. Man mano che i modelli di ragionamento proliferano, il loro consumo di energia cresce proporzionalmente. La ricerca indica che l'inferimento – generazione di risposte di intelligenza artificiale – ora contribuisce maggiormente all'impronta di carbonio della tecnologia rispetto al processo di formazione iniziale. Il meccanismo di controllo del ragionamento di Google offre un potenziale fattore attenuante per questa tendenza relativa.
Dinamica competitiva
Google non opera in modo isolato. Il modello di DeepSeek R1 di “Peso aperto”, emerso all'inizio di quest'anno, ha dimostrato potenti capacità di ragionamento a costi potenzialmente più bassi, innescando la volatilità del mercato che secondo quanto riferito ha causato quasi una fluttuazione del mercato azionario da trilioni di dollari.
A differenza dell'approccio proprietario di Google, DeepSeek rende le sue impostazioni interne disponibili pubblicamente per gli sviluppatori di implementare a livello locale.
Nonostante la concorrenza, Koray Kavukcuoglu, Chief Technical Officer di Google DeepMind, sostiene che i modelli proprietari manterranno vantaggi in domini specializzati che richiedono una precisione eccezionale: “codifica, matematica e finanza sono casi in cui ci sono grandi aspettative dal modello per essere molto precisi, molto precisi, molto precisi, molto precisi, molto precisi, per essere molto precisi, molto precisi, per essere molto precisi e per essere in grado di comprendere situazioni davvero complesse”.
Segni di maturazione del settore
Lo sviluppo del controllo del ragionamento dell'IA riflette un'industria che ora affronta limiti pratici oltre i benchmark tecnici. Mentre le aziende continuano a far avanzare le capacità di ragionamento, l'approccio di Google riconosce una realtà importante: l'efficienza è importante tanto quanto le prestazioni grezze nelle applicazioni commerciali.
La caratteristica evidenzia anche le tensioni tra progressi tecnologici e problemi di sostenibilità. Le prestazioni del modello di ragionamento di monitoraggio delle classifiche mostrano che le attività singoli possono costare fino a $ 200 per essere completata, sollevando domande sul ridimensionamento di tali capacità negli ambienti di produzione.
Consentendo agli sviluppatori di comporre il ragionamento su o giù in base alle esigenze effettive, Google affronta gli aspetti finanziari e ambientali della distribuzione dell'IA.
“Il ragionamento è la capacità chiave che crea intelligenza”, afferma Kavukcuoglu. “Nel momento in cui il modello inizia a pensare, l'agenzia del modello è iniziata.” La dichiarazione rivela sia la promessa che la sfida dei modelli di ragionamento: la loro autonomia crea sfide sia opportunità che di gestione delle risorse.
Per le organizzazioni che distribuiscono soluzioni di intelligenza artificiale, la capacità di perfezionare i budget di ragionamento potrebbe democratizzare l'accesso alle capacità avanzate mantenendo disciplina operativa.
Google afferma che Gemini 2.5 Flash offre “metriche comparabili ad altri modelli principali per una frazione di costo e dimensione” – una proposta di valore rafforzata dalla capacità di ottimizzare le risorse di ragionamento per applicazioni specifiche.
Implicazioni pratiche
La funzione di controllo del ragionamento AI ha applicazioni pratiche immediate. Gli sviluppatori che costruiscono applicazioni commerciali possono ora effettuare compromessi informati tra profondità di elaborazione e costi operativi.
Per applicazioni semplici come query di base dei clienti, le impostazioni di ragionamento minime conservano le risorse pur utilizzando le capacità del modello. Per analisi complesse che richiedono una profonda comprensione, la capacità di ragionamento completa rimane disponibile.
Il ragionamento di Google “Dial” fornisce un meccanismo per stabilire la certezza dei costi mantenendo gli standard di prestazione.
Vedi anche: Gemini 2.5: Google cucina il suo modello AI “più intelligente” fino ad oggi

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com