Oltre la metà di noi ora utilizza l’intelligenza artificiale per effettuare ricerche sul Web, ma la scarsa precisione dei dati degli strumenti comuni crea nuovi rischi aziendali.
Sebbene l’intelligenza artificiale generativa (GenAI) offra innegabili miglioramenti in termini di efficienza, una nuova indagine evidenzia una disparità tra fiducia degli utenti e accuratezza tecnica che pone rischi specifici per la conformità aziendale, la posizione legale e la pianificazione finanziaria.
Per i dirigenti, l’adozione di questi strumenti rappresenta una classica sfida dello “shadow IT”. Secondo un sondaggio condotto su 4.189 adulti nel Regno Unito nel settembre 2025, circa un terzo degli utenti ritiene che l’intelligenza artificiale sia già più importante per loro rispetto alla ricerca web standard. Se i dipendenti si affidano a questi strumenti per domande personali, quasi certamente li utilizzano per ricerche aziendali.
L’indagine, condotta da Quale?suggerisce che fare affidamento non verificato su queste piattaforme potrebbe essere costoso. Circa la metà degli utenti dell’intelligenza artificiale dichiara di fidarsi delle informazioni che riceve in misura “ragionevole” o “grande”. Tuttavia, considerando la granularità delle risposte fornite dai modelli di intelligenza artificiale, tale fiducia è spesso mal riposta.
Il divario di precisione quando si utilizza l’intelligenza artificiale per effettuare ricerche sul Web
Lo studio ha testato sei strumenti principali – ChatGPT, Google Gemini (sia standard che “AI Overviews”), Microsoft Copilot, Meta AI e Perplexity – su 40 domande comuni che spaziano dalla finanza, al diritto e ai diritti dei consumatori.
Perplexity ha ottenuto il punteggio totale più alto con il 71%, seguito da vicino da Google Gemini AI Overviews con il 70%. Al contrario, Meta ha ottenuto il punteggio più basso, pari al 55%. ChatGPT, nonostante la sua ampia adozione, ha ricevuto un punteggio totale del 64%, diventando così il secondo strumento con le prestazioni più basse tra gli strumenti testati. Questa disconnessione tra posizione dominante sul mercato e risultati affidabili sottolinea il pericolo di presumere che la popolarità equivalga alla performance nello spazio GenAI.
Tuttavia, l’indagine ha rivelato che tutti questi strumenti di intelligenza artificiale spesso interpretano erroneamente le informazioni o forniscono consigli incompleti che potrebbero comportare seri rischi aziendali. Per i responsabili finanziari e gli uffici legali, la natura di questi errori è particolarmente preoccupante.
Quando è stato chiesto come investire un’indennità ISA annuale di £ 25.000, sia ChatGPT che Copilot non sono riusciti a identificare un errore intenzionale nella richiesta relativa al limite legale. Invece di correggere la cifra, hanno offerto consigli che potenzialmente rischiavano di violare le regole dell’HMRC.
Sebbene Gemini, Meta e Perplexity abbiano identificato con successo l’errore, l’incoerenza tra le piattaforme richiede un rigoroso protocollo “human-in-the-loop” per qualsiasi processo aziendale che coinvolga l’intelligenza artificiale per garantire l’accuratezza.
Per i team legali, la tendenza dell’intelligenza artificiale a generalizzare le normative regionali quando la si utilizza per la ricerca sul web presenta un chiaro rischio aziendale. Dai test è emerso che è comune che gli strumenti fraintendano il fatto che gli statuti legali spesso differiscono tra le regioni del Regno Unito, come Scozia rispetto a Inghilterra e Galles.
Inoltre, l’indagine ha evidenziato una lacuna etica nel modo in cui questi modelli gestiscono le query ad alto rischio. Su questioni legali e finanziarie, gli strumenti raramente consigliavano agli utenti di consultare un professionista registrato. Ad esempio, quando interrogato su una controversia con un costruttore, Gemini ha consigliato di trattenere il pagamento; una tattica che gli esperti hanno notato potrebbe porre un utente in violazione del contratto e indebolire la sua posizione legale.
Questo “consiglio troppo sicuro” crea rischi operativi. Se un dipendente si affida a un’intelligenza artificiale per controlli preliminari di conformità o revisione del contratto senza verificare la giurisdizione o le sfumature legali, l’organizzazione potrebbe trovarsi ad affrontare un’esposizione normativa.
Problemi di trasparenza della fonte
Una delle principali preoccupazioni per la governance dei dati aziendali è la provenienza delle informazioni. L’indagine ha rilevato che gli strumenti di ricerca basati sull’intelligenza artificiale spesso hanno l’elevata responsabilità di essere trasparenti, ma spesso citano fonti vaghe, inesistenti o di dubbia accuratezza, come i vecchi thread dei forum. Questa opacità può portare a inefficienza finanziaria.
In un test relativo ai codici fiscali, ChatGPT e Perplexity hanno presentato collegamenti a società di rimborso fiscale premium anziché indirizzare l’utente allo strumento ufficiale gratuito dell’HMRC. Questi servizi di terze parti sono spesso caratterizzati da tariffe elevate.
In un contesto di procurement aziendale, tale distorsione algoritmica da parte degli strumenti di intelligenza artificiale quando vengono utilizzati per la ricerca sul web potrebbe portare a spese non necessarie da parte dei fornitori o a un impegno con fornitori di servizi che rappresentano un rischio elevato a causa del mancato rispetto degli standard di due diligence aziendale.
I principali fornitori di tecnologia riconoscono queste limitazioni, affidando fermamente l’onere della verifica all’utente e, per estensione, all’azienda.
Un portavoce di Microsoft ha sottolineato che il loro strumento funge da sintetizzatore piuttosto che da fonte autorevole. “Copilot risponde alle domande distillando informazioni da più fonti web in un’unica risposta”, ha osservato la società, aggiungendo che “incoraggiano le persone a verificare l’accuratezza dei contenuti”.
OpenAI, in risposta ai risultati, ha dichiarato: “Migliorare la precisione è qualcosa su cui sta lavorando l’intero settore. Stiamo facendo buoni progressi e il nostro ultimo modello predefinito, GPT-5, è il più intelligente e preciso che abbiamo costruito.”
Mitigare il rischio aziendale dell’IA attraverso policy e flussi di lavoro
Per i leader aziendali, la strada da seguire non è quella di vietare gli strumenti di intelligenza artificiale – che spesso aumentano portandone l’utilizzo ulteriormente nell’ombra – ma di implementare robusti quadri di governance per garantire l’accuratezza dei loro risultati quando vengono utilizzati per la ricerca sul web:
- Applicare la specificità nei prompt: L’indagine rileva che l’intelligenza artificiale sta ancora imparando a interpretare i suggerimenti. La formazione aziendale dovrebbe sottolineare che query vaghe producono dati rischiosi. Se un dipendente sta effettuando ricerche sulle normative, deve specificare la giurisdizione (ad esempio, “norme legali per Inghilterra e Galles”) anziché presumere che lo strumento deduca il contesto.
- Verifica della fonte del mandato: Affidarsi a un singolo output è operativamente improponibile. I dipendenti devono chiedere di vedere le fonti e controllarle manualmente. Lo studio suggerisce che, per gli argomenti ad alto rischio, gli utenti dovrebbero verificare i risultati attraverso più strumenti di intelligenza artificiale o “doppiare la fonte” delle informazioni. Strumenti come Gemini AI Overviews di Google, che consentono agli utenti di rivedere direttamente i collegamenti web presentati, hanno ottenuto risultati leggermente migliori nel punteggio perché hanno facilitato questo processo di verifica.
- Rendere operativa la “seconda opinione”: In questa fase di maturità tecnica, i risultati di GenAI dovrebbero essere visti solo come un’opinione tra tante. Per questioni complesse che coinvolgono finanza, diritto o dati medici, l’intelligenza artificiale non ha la capacità di comprendere appieno le sfumature. La politica aziendale deve imporre che la consulenza umana professionale rimanga l’arbitro finale delle decisioni con conseguenze nel mondo reale.
Gli strumenti di intelligenza artificiale si stanno evolvendo e la precisione delle loro ricerche sul web sta gradualmente migliorando, ma, come conclude l’indagine, fare troppo affidamento su di essi in questo momento potrebbe rivelarsi costoso. Per l’impresa, la differenza tra un guadagno in efficienza aziendale derivante dall’intelligenza artificiale e un rischio di mancata conformità risiede nel processo di verifica.
Vedi anche: Come Levi Strauss utilizza l’intelligenza artificiale per il suo modello di business DTC-first

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
