Secondo OpenAIL’intelligenza artificiale aziendale è passata dal sandbox e viene ora utilizzata per le operazioni quotidiane con profonde integrazioni del flusso di lavoro.
Nuovi dati provenienti dall’azienda mostrano che le aziende stanno ora assegnando flussi di lavoro complessi e in più fasi ai modelli anziché semplicemente chiedere riepiloghi testuali. Le cifre illustrano un forte cambiamento nel modo in cui le organizzazioni implementano modelli generativi.
Con la piattaforma di OpenAI che ora serve oltre 800 milioni di utenti settimanali, un effetto “volano” sta portando la familiarità dei consumatori negli ambienti professionali. L’ultimo rapporto dell’azienda rileva che oltre un milione di clienti aziendali ora utilizzano questi strumenti e l’obiettivo è ora un’integrazione ancora più profonda.
Questa evoluzione presenta due realtà ai decisori: i guadagni di produttività sono concreti, ma un divario crescente tra gli utilizzatori “di frontiera” e l’impresa mediana suggerisce che il valore dipende fortemente dall’intensità di utilizzo.
Dai chatbot al ragionamento profondo
Il parametro migliore per valutare la maturità dell’implementazione aziendale non è il numero delle postazioni, ma la complessità delle attività
OpenAI riferisce che il volume dei messaggi ChatGPT è cresciuto di otto volte anno su anno, ma un indicatore migliore per gli architetti aziendali è il consumo di token di ragionamento API che suggerisce che sono in atto integrazioni più profonde. Questa cifra è aumentata di quasi 320 volte per organizzazione, prova che le aziende stanno sistematicamente inserendo modelli più intelligenti nei loro prodotti per gestire la logica piuttosto che le query di base.
L’aumento delle interfacce configurabili supporta questa visione. Gli utenti settimanali di GPT e Progetti personalizzati (strumenti che consentono ai lavoratori di istruire modelli con conoscenze istituzionali specifiche) sono aumentati di circa 19 volte quest’anno. Circa il 20% di tutti i messaggi aziendali vengono ora elaborati tramite questi ambienti personalizzati, indicando che la standardizzazione è ormai un prerequisito per l’uso professionale.
Per i leader aziendali che controllano il ROI delle postazioni AI, i dati offrono prove del risparmio di tempo. In media, gli utenti attribuiscono alla tecnologia tra i 40 e i 60 minuti di tempo risparmiato per ogni giorno attivo. L’impatto varia in base alla funzione: i professionisti di data science, ingegneria e comunicazione segnalano risparmi maggiori (in media 60-80 minuti al giorno).
Oltre all’efficienza, il software sta alterando i confini dei ruoli. C’è un effetto specifico sulla capacità tecnica, in particolare riguardanti la generazione del codice.
Tra gli utenti aziendali, OpenAI afferma che i messaggi relativi alla codifica sono aumentati in tutte le funzioni aziendali. Al di fuori dei ruoli di ingegneria, IT e ricerca, le query di codifica sono cresciute in media del 36% negli ultimi sei mesi. I team non tecnici utilizzano gli strumenti per eseguire analisi che in precedenza richiedevano sviluppatori specializzati.
I miglioramenti operativi si estendono a tutti i reparti. I dati del sondaggio mostrano che l’87% dei lavoratori IT segnala una risoluzione dei problemi più rapida, mentre il 75% dei professionisti delle risorse umane riscontra un miglioramento del coinvolgimento dei dipendenti.
Ampliare il divario di competenze nell’intelligenza artificiale aziendale
I dati di OpenAI suggeriscono che si sta formando una spaccatura tra le organizzazioni che forniscono semplicemente l’accesso agli strumenti e quelle in cui le integrazioni sono profondamente integrate nei loro modelli operativi. Il rapporto identifica una classe di lavoratori “di frontiera” – quelli nel 95° percentile di intensità di adozione – che generano sei volte più messaggi rispetto al lavoratore medio.
Questa disparità è forte a livello organizzativo. Le aziende di frontiera generano circa il doppio dei messaggi per postazione rispetto all’impresa mediana e sette volte più messaggi ai GPT personalizzati. Le aziende leader non si limitano a utilizzare gli strumenti con maggiore frequenza; stanno investendo nelle infrastrutture e standardizzazione necessarie per rendere l’intelligenza artificiale una parte persistente delle operazioni.
Gli utenti che si impegnano in una più ampia varietà di attività (circa sette tipi distinti) riferiscono di risparmiare cinque volte più tempo rispetto a coloro che limitano il loro utilizzo a tre o quattro funzioni di base. I vantaggi sono direttamente correlati alla profondità di utilizzo, il che implica che un piano di implementazione “leggero” potrebbe non riuscire a fornire il ROI previsto.
Mentre i settori dei servizi professionali, della finanza e della tecnologia sono stati i primi ad adottarli e mantengono la più ampia scala di utilizzo, altri settori si stanno affrettando per recuperare il ritardo. Il settore tecnologico è in testa con una crescita di 11x anno su anno, ma l’assistenza sanitaria e il manifatturiero seguono da vicino con una crescita rispettivamente di 8x e 7x.
I modelli di adozione globale mettono anche in discussione l’idea che si tratti esclusivamente di un fenomeno incentrato sugli Stati Uniti. L’utilizzo internazionale è in aumento, con mercati come Australia, Brasile, Paesi Bassi e Francia che mostrano tassi di crescita dei clienti aziendali superiori al 140% su base annua. Anche il Giappone si è rivelato un mercato chiave, poiché detiene il maggior numero di clienti API aziendali al di fuori degli Stati Uniti.
OpenAI: le profonde integrazioni AI accelerano i flussi di lavoro aziendali
Esempi di implementazione evidenziano come questi strumenti influenzano i principali parametri aziendali. Rivenditore Lowe’s ha implementato uno strumento rivolto ai dipendenti in oltre 1.700 negozi, ottenendo un aumento del punteggio di soddisfazione del cliente di 200 punti base quando i dipendenti hanno utilizzato il sistema. Inoltre, quando i clienti online interagiscono con lo strumento AI del rivenditore, i tassi di conversione sono più che raddoppiati.
Nel settore farmaceutico, Moderno ha utilizzato l’intelligenza artificiale aziendale per accelerare la stesura dei profili di prodotto target (TPP), un processo che in genere richiede settimane di impegno interfunzionale. Automatizzando l’estrazione dei fatti chiave da enormi quantità di prove, l’azienda ha ridotto le fasi analitiche fondamentali da settimane a ore.
Società di servizi finanziari BBVA hanno sfruttato la tecnologia per risolvere un collo di bottiglia nella convalida legale dell’autorità firmataria aziendale. Costruendo una soluzione di intelligenza artificiale generativa per gestire domande legali standard, la banca ha automatizzato oltre 9.000 domande all’anno, liberando di fatto l’equivalente di tre dipendenti a tempo pieno per attività di maggior valore.
Tuttavia, la transizione verso un’intelligenza artificiale di livello produttivo richiede qualcosa di più del semplice approvvigionamento di software; necessita di prontezza organizzativa. Gli ostacoli principali per molte organizzazioni non sono più le capacità del modello, ma l’implementazione e le strutture interne.
Le aziende leader consentono costantemente una profonda integrazione dei sistemi “attivando” connettori che forniscono ai modelli un accesso sicuro ai dati aziendali. Tuttavia, circa un’impresa su quattro non ha compiuto questo passo, limitando i propri modelli alla conoscenza generica piuttosto che al contesto organizzativo specifico.
Il successo dell’implementazione si basa sulla sponsorizzazione esecutiva che stabilisce mandati espliciti e incoraggia la codificazione della conoscenza istituzionale in risorse riutilizzabili.
Poiché la tecnologia continua ad evolversi, le organizzazioni devono adeguare il proprio approccio. I dati di OpenAI suggeriscono che il successo ora dipende dalla delega di flussi di lavoro complessi con integrazioni profonde piuttosto che dalla semplice richiesta di risultati, trattando l’intelligenza artificiale come un motore primario per la crescita dei ricavi aziendali.
Vedi anche: AWS re:Invent 2025: gli agenti AI di frontiera sostituiscono i chatbot

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
