Come le persone usano davvero l’intelligenza artificiale: la sorprendente verità derivante dall’analisi di miliardi di interazioni

 | Intelligenza-Artificiale

Nell’ultimo anno ci è stato detto che l’intelligenza artificiale sta rivoluzionando la produttività, aiutandoci a scrivere e-mail, generare codice e riassumere documenti. Ma cosa accadrebbe se la realtà del modo in cui le persone utilizzano effettivamente l’intelligenza artificiale fosse completamente diversa da ciò che siamo stati portati a credere?

Un approccio basato sui dati studio di OpenRouter ha appena alzato il sipario sull’utilizzo dell’intelligenza artificiale nel mondo reale analizzando oltre 100 trilioni di token, essenzialmente miliardi e miliardi di conversazioni e interazioni con modelli linguistici di grandi dimensioni come ChatGPT, Claude e dozzine di altri. I risultati mettono in discussione molte ipotesi sulla rivoluzione dell’intelligenza artificiale.

OpenRouter è una piattaforma di inferenza AI multimodello che instrada le richieste attraverso più di 300 modelli provenienti da oltre 60 fornitori, da OpenAI e Anthropic ad alternative open source come DeepSeek e LLaMA di Meta.

Con oltre il 50% del suo utilizzo che ha origine al di fuori degli Stati Uniti e che serve milioni di sviluppatori in tutto il mondo, la piattaforma offre uno spaccato unico di come l’intelligenza artificiale viene effettivamente distribuita in diverse aree geografiche, casi d’uso e tipologie di utenti.

È importante sottolineare che lo studio ha analizzato i metadati di miliardi di interazioni senza accedere al testo effettivo delle conversazioni, preservando la privacy dell’utente e rivelando modelli comportamentali.

I modelli di intelligenza artificiale open source sono cresciuti fino a catturare circa un terzo dell’utilizzo totale entro la fine del 2025, con picchi notevoli a seguito dei rilasci principali.

La rivoluzione del gioco di ruolo che nessuno si aspettava

Forse la scoperta più sorprendente: più della metà di tutto l’utilizzo dei modelli di intelligenza artificiale open source non è affatto finalizzato alla produttività. È per il gioco di ruolo e la narrazione creativa.

Sì, hai letto bene. Mentre i dirigenti tecnologici pubblicizzano il potenziale dell’intelligenza artificiale per trasformare il business, gli utenti trascorrono la maggior parte del loro tempo impegnandosi in conversazioni guidate dai personaggi, narrativa interattiva e scenari di gioco.

Oltre il 50% delle interazioni dei modelli open source rientra in questa categoria, facendo impallidire persino l’assistenza alla programmazione.

“Ciò contrasta l’ipotesi secondo cui i LLM vengono utilizzati principalmente per scrivere codice, e-mail o riepiloghi”, afferma il rapporto. “In realtà, molti utenti interagiscono con questi modelli per compagnia o esplorazione.”

Questa non è solo una chiacchierata casuale. I dati mostrano che gli utenti trattano i modelli di intelligenza artificiale come motori di gioco di ruolo strutturati, con il 60% dei gettoni di gioco di ruolo che rientrano in scenari di gioco specifici e contesti di scrittura creativa. È un caso d’uso massiccio e in gran parte invisibile che sta rimodellando il modo in cui le aziende di intelligenza artificiale pensano ai loro prodotti.

L’ascesa fulminea della programmazione

Mentre il gioco di ruolo domina l’uso open source, la programmazione è diventata la categoria in più rapida crescita in tutti i modelli di intelligenza artificiale. All’inizio del 2025, le query relative alla codifica rappresentavano solo l’11% dell’utilizzo totale dell’IA. Entro la fine dell’anno, quella cifra era esplosa a oltre il 50%.

Questa crescita riflette la sempre maggiore integrazione dell’intelligenza artificiale nello sviluppo del software. La lunghezza media dei prompt per le attività di programmazione è quadruplicata, da circa 1.500 token a oltre 6.000, con alcune richieste relative al codice che superano i 20.000 token, più o meno equivalenti a inserire un’intera base di codice in un modello AI per l’analisi.

Per contestualizzare, le query di programmazione ora generano alcune delle interazioni più lunghe e complesse dell’intero ecosistema AI. Gli sviluppatori non chiedono più solo semplici frammenti di codice; stanno conducendo sofisticate sessioni di debug, revisioni dell’architettura e risoluzione dei problemi in più fasi.

I modelli Claude di Anthropic dominano questo spazio, catturando oltre il 60% dell’utilizzo relativo alla programmazione per la maggior parte del 2025, anche se la concorrenza si sta intensificando man mano che Google, OpenAI e le alternative open source guadagnano terreno.

Le query relative alla programmazione sono esplose dall’11% dell’utilizzo totale dell’IA all’inizio del 2025 a oltre il 50% entro la fine dell’anno.

L’impennata dell’intelligenza artificiale cinese

Un’altra importante rivelazione: i modelli di intelligenza artificiale cinesi rappresentano ora circa il 30% dell’utilizzo globale, quasi il triplo della loro quota del 13% all’inizio del 2025.

I modelli di DeepSeek, Qwen (Alibaba) e Moonshot AI hanno rapidamente guadagnato terreno, con il solo DeepSeek che ha elaborato 14,37 trilioni di token durante il periodo di studio. Ciò rappresenta un cambiamento fondamentale nel panorama globale dell’intelligenza artificiale, in cui le aziende occidentali non detengono più un dominio incontrastato.

Il cinese semplificato è ora la seconda lingua più comune per le interazioni con l’intelligenza artificiale a livello globale con il 5% dell’utilizzo totale, dietro solo all’inglese con l’83%. La quota complessiva della spesa per l’intelligenza artificiale in Asia è più che raddoppiata, passando dal 13% al 31%, con Singapore che emerge come il secondo paese più grande per utilizzo dopo gli Stati Uniti.

L’ascesa dell’IA “Agentic”.

Lo studio introduce un concetto che definirà la fase successiva dell’intelligenza artificiale: l’inferenza dell’agente. Ciò significa che i modelli di intelligenza artificiale non si limitano più a rispondere a singole domande: eseguono attività in più fasi, chiamano strumenti esterni e ragionano durante conversazioni estese.

La percentuale di interazioni IA classificate come “ottimizzate per il ragionamento” è passata da quasi zero all’inizio del 2025 a oltre il 50% entro la fine dell’anno. Ciò riflette un passaggio fondamentale dall’intelligenza artificiale come generatore di testo all’intelligenza artificiale come agente autonomo in grado di pianificare ed eseguire.

“La richiesta media di LLM non è più una semplice domanda o un’istruzione isolata”, spiegano i ricercatori. “Invece, fa parte di un ciclo strutturato, simile ad un agente, che invoca strumenti esterni, ragiona sullo stato e persiste in contesti più lunghi.”

Pensatela in questo modo: invece di chiedere all’IA di “scrivere una funzione”, ora le state chiedendo di “debuggare questa base di codice, identificare il collo di bottiglia delle prestazioni e implementare una soluzione” – e può effettivamente farlo.

L’“Effetto scarpetta di vetro”

Uno degli approfondimenti più affascinanti dello studio riguarda la fidelizzazione degli utenti. I ricercatori hanno scoperto quello che chiamano l’effetto “scarpetta di vetro” di Cenerentola, un fenomeno in cui i modelli di intelligenza artificiale che sono “i primi a risolvere” un problema critico creano una fidelizzazione duratura degli utenti.

Quando un modello appena rilasciato soddisfa perfettamente un bisogno precedentemente insoddisfatto – la metaforica “scarpetta di vetro” – i primi utenti rimangono molto più a lungo rispetto agli adottanti successivi. Ad esempio, il gruppo di giugno 2025 di Gemini 2.5 Pro di Google ha mantenuto circa il 40% degli utenti al quinto mese, un valore sostanzialmente superiore rispetto ai gruppi successivi.

Ciò sfida la saggezza convenzionale sulla concorrenza dell’intelligenza artificiale. Essere i primi è importante, ma in particolare essere i primi a risolvere un problema di alto valore crea un vantaggio competitivo duraturo. Gli utenti incorporano questi modelli nei loro flussi di lavoro, rendendo il passaggio costoso sia dal punto di vista tecnico che comportamentale.

Il costo non ha importanza (per quanto si possa pensare)

Forse controintuitivamente, lo studio rivela che l’utilizzo dell’intelligenza artificiale è relativamente anelastico rispetto al prezzo. Una diminuzione del prezzo del 10% corrisponde solo a un aumento dell’utilizzo dello 0,5-0,7% circa.

I modelli premium di Anthropic e OpenAI richiedono 2-35 dollari per milione di token mantenendo un utilizzo elevato, mentre le opzioni di budget come DeepSeek e Gemini Flash di Google raggiungono una scala simile con meno di 0,40 dollari per milione di token. Entrambi coesistono con successo.

“Il mercato LLM non sembra ancora comportarsi come una merce”, conclude il rapporto. “Gli utenti bilanciano i costi con la qualità del ragionamento, l’affidabilità e l’ampiezza delle capacità.”

Ciò significa che l’intelligenza artificiale non è diventata una corsa al ribasso sui prezzi. Qualità, affidabilità e capacità continuano a essere premiali, almeno per ora.

Cosa significa andare avanti

Lo studio OpenRouter dipinge un quadro dell’utilizzo dell’intelligenza artificiale nel mondo reale che è molto più sfumato di quanto suggeriscano le narrazioni del settore. Sì, l’intelligenza artificiale sta trasformando la programmazione e il lavoro professionale. Ma sta anche creando categorie completamente nuove di interazione uomo-computer attraverso giochi di ruolo e applicazioni creative.

Il mercato si sta diversificando geograficamente, con la Cina che emerge come una forza importante. La tecnologia si sta evolvendo dalla semplice generazione di testo al ragionamento complesso in più fasi. E la fedeltà degli utenti non dipende tanto dall’essere i primi sul mercato quanto dall’essere i primi a risolvere veramente un problema.

Come rileva il rapporto, “i modi in cui le persone utilizzano gli LLM non sempre sono in linea con le aspettative e variano in modo significativo da paese a paese, stato per stato, caso d’uso per caso d’uso”.

Comprendere questi modelli del mondo reale – non solo i punteggi di riferimento o le affermazioni di marketing – sarà cruciale man mano che l’intelligenza artificiale diventerà sempre più integrata nella vita quotidiana. Il divario tra il modo in cui pensiamo che venga utilizzata l’intelligenza artificiale e il modo in cui viene effettivamente utilizzata è più ampio di quanto si creda. Questo studio aiuta a colmare questo divario.

Vedi anche: Deep Cogito v2: IA open source che affina le sue capacità di ragionamento

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *