L’adozione dell’intelligenza artificiale aziendale si sposta verso i sistemi ad agenti

 | Intelligenza-Artificiale

Secondo DatabricksL’adozione dell’intelligenza artificiale aziendale si sta spostando verso sistemi ad agenti poiché le organizzazioni adottano flussi di lavoro intelligenti.

La prima ondata di intelligenza artificiale generativa prometteva una trasformazione aziendale, ma spesso si concretizzava in poco più che chatbot isolati e programmi pilota in fase di stallo. I leader tecnologici si sono trovati a gestire aspettative elevate con un’utilità operativa limitata. Tuttavia, la nuova telemetria di Databricks suggerisce che il mercato ha voltato pagina.

I dati provenienti da oltre 20.000 organizzazioni – incluso il 60% delle aziende Fortune 500 – indicano un rapido spostamento verso architetture “agentiche” in cui i modelli non si limitano a recuperare informazioni ma pianificano ed eseguono in modo indipendente i flussi di lavoro.

Questa evoluzione rappresenta una riallocazione fondamentale delle risorse ingegneristiche. Tra giugno e ottobre 2025, l’uso di flussi di lavoro multi-agente sulla piattaforma Databricks è cresciuto del 327%. Questa impennata segnala che l’intelligenza artificiale si sta trasformando in una componente fondamentale dell’architettura di sistema.

L'”agente supervisore” guida l’adozione aziendale dell’intelligenza artificiale con agenti

A guidare questa crescita è l'”agente supervisore”. Invece di fare affidamento su un unico modello per gestire ogni richiesta, un supervisore agisce come un orchestratore, suddividendo query complesse e delegando attività a sottoagenti o strumenti specializzati.

Dal suo lancio nel luglio 2025, Supervisor Agent è diventato il caso d’uso principale dell’agente, rappresentando il 37% di utilizzo entro ottobre. Questo modello rispecchia le strutture organizzative umane: un manager non esegue tutti i compiti ma si assicura che il team li esegua. Allo stesso modo, un agente supervisore gestisce il rilevamento degli intenti e i controlli di conformità prima di indirizzare il lavoro a strumenti specifici del dominio.

Le aziende tecnologiche attualmente guidano questa adozione, costruendo quasi quattro volte più sistemi multi-agente rispetto a qualsiasi altro settore. Eppure l’utilità si estende a tutti i settori. UN servizi finanziari un’azienda, ad esempio, potrebbe utilizzare un sistema multi-agente per gestire contemporaneamente il recupero dei documenti e la conformità normativa, fornendo una risposta verificata al cliente senza intervento umano.

Infrastrutture tradizionali sotto pressione

Man mano che gli agenti passano dal rispondere alle domande all’eseguire attività, l’infrastruttura dati sottostante si trova ad affrontare nuove esigenze. I database OLTP (Online Transaction Processing) tradizionali sono stati progettati per interazioni a velocità umana con transazioni prevedibili e modifiche di schema poco frequenti. I flussi di lavoro agentici invertono questi presupposti.

Gli agenti IA ora generano modelli di lettura e scrittura continui e ad alta frequenza, spesso creando ed eliminando ambienti a livello di codice per testare il codice o eseguire scenari. La portata di questa automazione è visibile nei dati di telemetria. Due anni fa, gli agenti di intelligenza artificiale creavano solo lo 0,1% dei database; oggi, quella cifra è pari all’80%.

Inoltre, il 97% degli ambienti di test e sviluppo dei database sono ora realizzati da agenti IA. Questa funzionalità consente agli sviluppatori e ai “codificatori di vibrazioni” di creare ambienti effimeri in pochi secondi anziché in ore. Dall’anteprima pubblica delle app Databricks sono state create oltre 50.000 app per dati e intelligenza artificiale, con un tasso di crescita del 250% negli ultimi sei mesi.

Lo standard multimodello

Il vincolo al fornitore rimane un rischio persistente per i leader aziendali che cercano di aumentare l’adozione dell’intelligenza artificiale tramite agenti. I dati indicano che le organizzazioni stanno attivamente mitigando questo problema adottando strategie multi-modello. A ottobre 2025, il 78% delle aziende utilizzava due o più famiglie di Large Language Model (LLM), come ChatGPT, Claude, Llama e Gemini.

La sofisticazione di questo approccio è in aumento. La percentuale di aziende che utilizzano tre o più famiglie di modelli è aumentata dal 36% al 59% tra agosto e ottobre 2025. Questa diversità consente ai team di ingegneri di instradare le attività più semplici a più piccolo e più conveniente modelli di frontiera, riservando i modelli di frontiera per ragionamenti complessi.

Aziende al dettaglio stanno dettando il passo, con l’83% che impiega due o più famiglie di modelli per bilanciare prestazioni e costi. Una piattaforma unificata in grado di integrare vari modelli proprietari e open source sta rapidamente diventando un prerequisito per il moderno stack di intelligenza artificiale aziendale.

Contrariamente all’eredità dei big data dell’elaborazione batch, l’intelligenza artificiale degli agenti opera principalmente nel presente. Il rapporto evidenzia che il 96% di tutte le richieste di inferenza vengono elaborate in tempo reale.

Ciò è particolarmente evidente nei settori in cui la latenza è direttamente correlata al valore. Il settore tecnologico elabora 32 richieste in tempo reale per ogni singola richiesta batch. Nel settore sanitario e delle scienze della vita, dove le applicazioni possono comportare il monitoraggio dei pazienti o il supporto alle decisioni cliniche, il rapporto è di 13 a uno. Per i leader IT, ciò rafforza la necessità di un’infrastruttura al servizio dell’inferenza in grado di gestire i picchi di traffico senza compromettere l’esperienza dell’utente.

La governance accelera le implementazioni dell’intelligenza artificiale aziendale

Forse la scoperta più controintuitiva per molti dirigenti è la relazione tra governance e velocità. Spesso visto come un collo di bottiglia, governance rigorosa e i quadri di valutazione funzionano come acceleratori per l’implementazione della produzione.

Le organizzazioni che utilizzano strumenti di governance dell’intelligenza artificiale mettono in produzione oltre 12 volte più progetti di intelligenza artificiale rispetto a quelle che non lo fanno. Allo stesso modo, le aziende che utilizzano strumenti di valutazione per testare sistematicamente la qualità dei modelli ottengono quasi sei volte più implementazioni di produzione.

La logica è semplice. La governance fornisce le misure di sicurezza necessarie, ad esempio la definizione delle modalità di utilizzo dei dati e la definizione dei limiti di velocità, che danno alle parti interessate la sicurezza necessaria per approvare l’implementazione. Senza questi controlli, i piloti spesso rimangono bloccati nella fase di prova a causa di rischi non quantificati per la sicurezza o la conformità.

Il valore della “noiosa” automazione aziendale dell’intelligenza artificiale degli agenti

Mentre gli agenti autonomi spesso evocano immagini di capacità futuristiche, l’attuale valore aziendale dell’intelligenza artificiale degli agenti risiede nell’automazione delle attività di routine, banali ma necessarie. I principali casi d’uso dell’IA variano in base al settore, ma si concentrano sulla risoluzione di problemi aziendali specifici:

  • Manifatturiero e automobilistico: Il 35% dei casi d’uso si concentra sulla manutenzione predittiva.
  • Salute e scienze della vita: Il 23% dei casi d’uso riguarda la sintesi della letteratura medica.
  • Vendita al dettaglio e beni di consumo: Il 14% dei casi d’uso è dedicato alla market intelligence.

Inoltre, il 40% dei principali casi d’uso dell’intelligenza artificiale affronta le preoccupazioni pratiche dei clienti come l’assistenza clienti, il patrocinio e l’onboarding. Queste applicazioni promuovono un’efficienza misurabile e costruiscono la forza organizzativa necessaria per flussi di lavoro agenti più avanzati.

Per i dirigenti, il percorso da seguire prevede una minore attenzione alla “magia” dell’intelligenza artificiale e una maggiore attenzione al rigore ingegneristico che la circonda. Dael Williamson, CTO EMEA di Databricks, sottolinea che la conversazione è cambiata.

“Per le aziende dell’area EMEA, il discorso si è spostato dalla sperimentazione dell’intelligenza artificiale alla realtà operativa”, afferma Williamson. “Gli agenti dell’intelligenza artificiale stanno già gestendo parti critiche dell’infrastruttura aziendale, ma le organizzazioni che vedono il valore reale sono quelle che considerano la governance e la valutazione come fondamenti, non come ripensamenti”.

Williamson sottolinea che il vantaggio competitivo si sta spostando verso il modo in cui le aziende costruiscono, piuttosto che semplicemente verso ciò che acquistano.

“Le piattaforme aperte e interoperabili consentono alle organizzazioni di applicare l’intelligenza artificiale ai propri dati aziendali, invece di fare affidamento su funzionalità di intelligenza artificiale integrate che offrono produttività a breve termine ma non differenziazione a lungo termine”.

Nei mercati altamente regolamentati, questa combinazione di apertura e controllo è “ciò che separa i piloti dal vantaggio competitivo”.

Vedi anche: Anthropic selezionata per costruire un assistente pilota governativo per l’intelligenza artificiale

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *