La gestione degli aspetti economici dell’intelligenza artificiale multi-agente ora determina la sostenibilità finanziaria dei moderni flussi di lavoro di automazione aziendale.
Le organizzazioni che passano dalle interfacce di chat standard alle applicazioni multi-agente devono affrontare due vincoli principali. La prima questione è la tassa sul pensiero; agenti autonomi complessi devono ragionare in ogni fase, rendendo il ricorso ad architetture massicce per ogni sottoattività troppo costoso e lento per l’uso pratico aziendale.
L’esplosione del contesto funge da secondo ostacolo; questi flussi di lavoro avanzati producono fino al 1.500% di token in più rispetto ai formati standard perché ogni interazione richiede il reinvio di cronologie complete del sistema, ragionamenti intermedi e output degli strumenti. Nelle attività estese, questo volume di token aumenta le spese e provoca la deriva degli obiettivi, uno scenario in cui gli agenti divergono dai loro obiettivi iniziali.
Valutazione delle architetture per l’intelligenza artificiale multi-agente
Per affrontare questi ostacoli in termini di governance ed efficienza, gli sviluppatori di hardware e software stanno rilasciando strumenti altamente ottimizzati rivolti direttamente all’infrastruttura aziendale.
NVIDIA ha recentemente introdotto Nemotron 3 Super, un’architettura aperta con 120 miliardi di parametri (di cui 12 miliardi rimangono attivi) appositamente progettata per eseguire complessi sistemi di intelligenza artificiale ad agenti.
Disponibile immediatamente, il framework NVIDIA unisce funzionalità di ragionamento avanzate per aiutare gli agenti autonomi a completare le attività in modo efficiente e accurato per una migliore automazione aziendale. Il sistema si basa su un’architettura ibrida composta da esperti che combina tre importanti innovazioni per fornire una produttività fino a cinque volte superiore e una precisione doppia rispetto al precedente modello Nemotron Super. Durante l’inferenza, solo 12 dei 120 miliardi di parametri sono attivi.
Gli strati Mamba forniscono quattro volte la memoria e l’efficienza di calcolo, mentre gli strati del trasformatore standard gestiscono i complessi requisiti di ragionamento. Una tecnica latente aumenta la precisione coinvolgendo quattro specialisti esperti al costo di uno durante la generazione dei token. Il sistema anticipa inoltre più parole future contemporaneamente, triplicando la velocità di inferenza.
Operando sulla piattaforma Blackwell, l’architettura utilizza la precisione NVFP4. Questa configurazione riduce le esigenze di memoria e rende l’inferenza fino a quattro volte più veloce rispetto alle configurazioni FP8 sui sistemi Hopper, il tutto senza sacrificare la precisione.
Tradurre la capacità di automazione in risultati aziendali
Il sistema offre una finestra di contesto da un milione di token, consentendo agli agenti di mantenere in memoria l’intero stato del flusso di lavoro e affrontando direttamente il rischio di deviazione degli obiettivi. Un agente di sviluppo software può caricare simultaneamente un’intera base di codice nel contesto, consentendo la generazione e il debug del codice end-to-end senza richiedere la segmentazione dei documenti.
Nell’ambito dell’analisi finanziaria, il sistema può caricare in memoria migliaia di pagine di report, migliorando l’efficienza eliminando la necessità di ripensare durante lunghe conversazioni. Le chiamate agli strumenti ad alta precisione garantiscono che gli agenti autonomi possano navigare in modo affidabile in enormi librerie di funzioni, prevenendo errori di esecuzione in ambienti ad alto rischio come l’orchestrazione autonoma della sicurezza all’interno della sicurezza informatica.
I leader del settore – tra cui Amdocs, Palantir, Cadence, Dassault Systèmes e Siemens – stanno implementando e personalizzando il modello per automatizzare i flussi di lavoro nei settori delle telecomunicazioni, della sicurezza informatica, della progettazione di semiconduttori e della produzione.
Piattaforme di sviluppo software come CodeRabbit, Factory e Greptile lo stanno integrando insieme a modelli proprietari per ottenere una maggiore precisione a costi inferiori. Aziende di scienze della vita come Edison Scientific e Lila Sciences lo utilizzeranno per potenziare gli agenti per la ricerca approfondita della letteratura, la scienza dei dati e la comprensione molecolare.
L’architettura consente inoltre all’agente AI-Q di raggiungere la prima posizione nelle classifiche DeepResearch Bench e DeepResearch Bench II, evidenziando la sua capacità di ricerca in più fasi su set di documenti di grandi dimensioni mantenendo la coerenza del ragionamento.
Infine, il modello ha conquistato il primo posto nell’Analisi Artificiale per efficienza e apertura, presentando una precisione leader tra i modelli delle sue dimensioni.
Attuazione e allineamento delle infrastrutture
Progettato per gestire attività secondarie complesse all’interno di sistemi multi-agente, la flessibilità di implementazione rimane una priorità per i leader che guidano l’automazione aziendale.
NVIDIA ha rilasciato il modello con pesi aperti con una licenza permissiva, consentendo agli sviluppatori di distribuirlo e personalizzarlo su workstation, data center o ambienti cloud. È confezionato come microservizio NVIDIA NIM per facilitare questa ampia distribuzione dai sistemi locali al cloud.
L’architettura è stata addestrata su dati sintetici generati da modelli di ragionamento di frontiera. NVIDIA ha pubblicato la metodologia completa, che comprende oltre 10 trilioni di token di set di dati pre e post formazione, 15 ambienti di formazione per l’apprendimento per rinforzo e ricette di valutazione. I ricercatori possono perfezionare ulteriormente il modello o crearne uno proprio utilizzando la piattaforma NeMo.
Qualsiasi dirigente che pianifichi un’implementazione della digitalizzazione deve affrontare in anticipo l’esplosione del contesto e l’onere del pensiero per prevenire la deriva degli obiettivi e il superamento dei costi nei flussi di lavoro degli agenti. Stabilire una supervisione completa dell’architettura garantisce che questi agenti sofisticati rimangano allineati alle direttive aziendali, ottenendo guadagni di efficienza sostenibili e promuovendo l’automazione aziendale in tutta l’organizzazione.
Vedi anche: Ai2: creazione di un’intelligenza artificiale fisica con dati di simulazione virtuale

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
