
Qualche anno fa, la parola d’ordine preferita nel mondo della tecnologia aziendale era “Big Data”, un riferimento alla raccolta di massa di informazioni da parte delle organizzazioni che potevano essere utilizzate per suggerire modi di operare precedentemente inesplorati e fornire idee su quali strategie potrebbero meglio perseguire.
Ciò che sta diventando sempre più evidente è che i problemi che le aziende devono affrontare nell’utilizzo dei Big Data a proprio vantaggio rimangono ancora, ed è una nuova tecnologia – l’intelligenza artificiale – che sta facendo emergere questi problemi ancora una volta in superficie. Senza affrontare i problemi che affliggono i Big Data, Le implementazioni dell’intelligenza artificiale continueranno a fallire.
Quali sono allora i problemi che impediscono all’intelligenza artificiale di mantenere le sue promesse?
La stragrande maggioranza dei problemi deriva dalle risorse di dati stesse. Per comprendere il problema, considerare le seguenti fonti di informazioni utilizzate in una giornata lavorativa media.
In un’impresa di piccole e medie dimensioni:
- Fogli di calcolo, archiviati sui laptop degli utenti, in Fogli Google, Office 365 cloud.
- La piattaforma di gestione delle relazioni con i clienti (CRM).
- Scambi di email tra colleghi, clienti, fornitori.
- Documenti Word, PDF, moduli web.
- App di messaggistica.
In un’impresa:
- Tutto quanto sopra, inoltre,
- Sistemi di pianificazione delle risorse aziendali (ERP).
- Feed di dati in tempo reale.
- Laghi di dati.
- Database disparati dietro più prodotti puntuali.
Vale la pena notare che il semplice elenco riportato sopra non è completo, né è destinato a esserlo. Ciò dimostra che in sole cinque righe si trovano circa una dozzina di luoghi in cui è possibile trovare informazioni. Ciò di cui i Big Data avevano bisogno (forse hanno ancora bisogno) e su cui si basano anche i progetti di intelligenza artificiale, è in qualche modo riunire tutti questi elementi in modo tale che un algoritmo informatico possa dargli un senso.
Il ciclo di hype del colosso del marketing Gartner per l’intelligenza artificiale, 2024, ha collocato i dati AI-Ready sulla curva ascendente del ciclo di hype, stimando che ci sarebbero voluti 2-5 anni prima che raggiungesse il “plateau della produttività”. Dato che i sistemi di intelligenza artificiale estraggono ed estraggono dati, la maggior parte delle organizzazioni, tranne quelle di dimensioni molto maggiori, non hanno le basi su cui costruire e potrebbero non ricevere assistenza dall’intelligenza artificiale per altri 1-4 anni.
Il problema di fondo per l’implementazione dell’intelligenza artificiale è lo stesso delle tenaci innovazioni dei Big Data mentre, in passato, si facevano strada attraverso il ciclo dell’hype – dall’innesco dell’innovazione, al picco di aspettative gonfiate, al declino della disillusione, alla pendenza dell’illuminazione, al plateau della produttività – i dati si presentano in molte forme; può essere incoerente; forse aderisce a standard diversi; potrebbe essere impreciso o parziale; potrebbero trattarsi di informazioni altamente sensibili, oppure vecchie e quindi irrilevanti.
Trasformare i dati in modo che siano pronti per l’intelligenza artificiale rimane un processo oggi più rilevante (forse di più) di quanto non lo sia mai stato. Le aziende che desiderano iniziare velocemente potrebbero sperimentare le numerose piattaforme di trattamento dei dati attualmente disponibili e, come sta diventando il consiglio comune, potrebbero iniziare con progetti discreti come banchi di prova per valutare l’efficacia delle tecnologie emergenti.
Il vantaggio dei più recenti sistemi di preparazione e assemblaggio dei dati è che sono progettati per preparare le risorse informative di un’organizzazione in modi progettati per consentire ai dati di essere utilizzati dalle piattaforme di creazione di valore dell’intelligenza artificiale. Possono offrire, ad esempio, guardrail attentamente codificati che contribuiranno a garantire la conformità dei dati e a proteggere gli utenti dall’accesso a informazioni distorte o sensibili dal punto di vista commerciale.
Ma la sfida di produrre risorse di dati coerenti, sicure e ben formulate rimane una questione aperta. Poiché le organizzazioni acquisiscono sempre più dati nelle loro operazioni quotidiane, la compilazione di risorse di dati aggiornate a cui attingere è un processo costante. Laddove i big data potrebbero essere considerati una risorsa statica, i dati per l’acquisizione dell’intelligenza artificiale devono essere preparati e trattati il più vicino possibile al tempo reale.
La situazione rimane quindi un triplice equilibrio tra opportunità, rischio e costo. Mai prima d’ora la scelta del fornitore o della piattaforma è stata così cruciale per il business moderno.
(Fonte: “Inside the business school” di Darien e Neil è concesso in licenza con CC BY-NC 2.0.)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com