Mentre la prospettiva dell’intelligenza artificiale come collaboratore digitale ha dominato l’agenda del primo giorno nella co-locazione Fiera dell’intelligenza artificiale e dei big data E Conferenza sull’automazione intelligentele sessioni tecniche si sono concentrate sull’infrastruttura per farla funzionare.
Uno degli argomenti principali dell’area espositiva è stata la progressione dall’automazione passiva ai sistemi “agenti”. Questi strumenti ragionano, pianificano ed eseguono attività anziché seguire rigidi script. Amal Makwana di Citi ha spiegato in dettaglio come questi sistemi agiscono nei flussi di lavoro aziendali. Questa capacità li separa dalla precedente automazione dei processi robotici (RPA).
Scott Ivell e Ire Adewolu di DeepL hanno descritto questo sviluppo come la chiusura del “gap di automazione”. Sostenevano che l’intelligenza artificiale funziona come un collaboratore digitale piuttosto che come un semplice strumento. Il valore reale si sblocca riducendo la distanza tra intento ed esecuzione. Brian Halpin di SS&C Blue Prism ha osservato che le organizzazioni in genere devono padroneggiare l’automazione standard prima di poter implementare l’intelligenza artificiale con agenti.
Questo cambiamento richiede strutture di governance in grado di gestire risultati non deterministici. Steve Holyer di Informatica, insieme a relatori di MuleSoft e Salesforce, ha sostenuto che l’architettura di questi sistemi richiede una supervisione rigorosa. Un livello di governance deve controllare il modo in cui gli agenti accedono e utilizzano i dati per prevenire guasti operativi.
La qualità dei dati blocca la distribuzione
L’output di un sistema autonomo dipende dalla qualità del suo input. Andreas Krause di SAP ha affermato che l’intelligenza artificiale fallisce senza dati aziendali affidabili e connessi. Affinché GenAI possa funzionare in un contesto aziendale, deve accedere a dati che siano accurati e contestualmente rilevanti.
Meni Meller di Gigaspaces ha affrontato la sfida tecnica delle “allucinazioni” nei LLM. Ha sostenuto l’uso di eRAG (retrieval-augmented generation) combinato con livelli semantici per risolvere i problemi di accesso ai dati. Questo approccio consente ai modelli di recuperare dati aziendali reali in tempo reale.
Anche l’archiviazione e l’analisi presentano sfide. Un panel composto da rappresentanti di Equifax, British Gas e Centrica ha discusso della necessità di analisi in tempo reale native del cloud. Per queste organizzazioni, il vantaggio competitivo deriva dalla capacità di eseguire strategie di analisi scalabili e immediate.
Sicurezza fisica e osservabilità
L’integrazione dell’intelligenza artificiale si estende agli ambienti fisici, introducendo rischi per la sicurezza diversi dai guasti del software. Un panel che comprendeva Edith-Clare Hall di ARIA e Matthew Howard di IEEE RAS ha esaminato il modo in cui l’intelligenza artificiale incorporata viene utilizzata nelle fabbriche, negli uffici e negli spazi pubblici. Devono essere stabiliti protocolli di sicurezza Prima i robot interagiscono con gli esseri umani.
Perla Maiolino dell’Oxford Robotics Institute ha fornito una prospettiva tecnica su questa sfida. La sua ricerca sui sensori del tempo di volo (ToF) e sulla pelle elettronica mira a dare ai robot sia la consapevolezza di sé che la consapevolezza ambientale. Per settori come quello manifatturiero e della logistica, questi sistemi di percezione integrati prevengono gli incidenti.
Nello sviluppo del software, l’osservabilità rimane una preoccupazione parallela. Yulia Samoylova di Datadog ha evidenziato come l’intelligenza artificiale cambia il modo in cui i team creano e risolvono i problemi del software. Man mano che i sistemi diventano più autonomi, la capacità di osservare il loro stato interno e i processi di ragionamento diventa necessaria per l’affidabilità.
Infrastrutture e barriere all’adozione
L’attuazione richiede infrastrutture affidabili e una cultura ricettiva. Julian Skeels di Expereo sostiene che le reti devono essere progettate specificamente per i carichi di lavoro dell’intelligenza artificiale. Ciò implica la creazione di strutture di rete sovrane, sicure e “sempre attive” in grado di gestire un throughput elevato.
Naturalmente, l’elemento umano rimane imprevedibile. Paul Fermor di IBM Automation ha avvertito che il pensiero tradizionale sull’automazione spesso sottovaluta la complessità dell’adozione dell’intelligenza artificiale. L’ha definita “l’illusione della disponibilità dell’intelligenza artificiale”. Jena Miller ha rafforzato questo punto, sottolineando che le strategie devono essere incentrate sull’uomo per garantire l’adozione. Se la forza lavoro non si fida degli strumenti, la tecnologia non produce alcun ritorno.
Ravi Jay di Sanofi ha suggerito che i leader debbano porsi domande operative ed etiche nelle prime fasi del processo. Il successo dipende dalla decisione su dove costruire soluzioni proprietarie rispetto a dove acquistare piattaforme consolidate.
Le sessioni del primo giorno degli eventi co-localizzati indicano che, mentre la tecnologia si sta spostando verso agenti autonomi, l’implementazione richiede una solida base di dati.
I CIO dovrebbero concentrarsi sulla creazione di strutture di governance dei dati che supportino la generazione aumentata di recupero. L’infrastruttura di rete deve essere valutata per garantire che supporti i requisiti di latenza dei carichi di lavoro degli agenti. Infine, le strategie di adozione culturale devono procedere parallelamente all’implementazione tecnica.
Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com
