Basil Faruqui, direttore del marketing delle soluzioni di BMC Software, parla dell'importanza di DataOps, dell'orchestrazione dei dati e del ruolo dell'intelligenza artificiale nell'ottimizzazione dell'automazione dei flussi di lavoro complessi per il successo aziendale.
Quali sono stati gli ultimi sviluppi in BMC?
Sono tempi entusiasmanti per BMC e in particolare per la nostra linea di prodotti Control-M, poiché continuiamo ad aiutare alcune delle più grandi aziende di tutto il mondo ad automatizzare e orchestrare i risultati aziendali che dipendono da flussi di lavoro complessi. Un grande focus della nostra strategia è stato su DataOps, in particolare sull'orchestrazione all'interno della pratica DataOps. Negli ultimi dodici mesi abbiamo fornito oltre settanta integrazioni con offerte serverless e PaaS su AWS, Azure e GCP consentendo ai nostri clienti di introdurre rapidamente servizi cloud moderni nei loro modelli di orchestrazione Control-M. Inoltre, stiamo prototipando casi d'uso basati su GenAI per accelerare lo sviluppo del flusso di lavoro e l'ottimizzazione del runtime.
Quali sono le ultime tendenze che hai notato svilupparsi in DataOps?
Ciò che stiamo vedendo nel mondo dei dati in generale è un continuo investimento in software di dati e analisi. Gli analisti stimano che la spesa per software di dati e analisi lo scorso anno sia stata di oltre 100 miliardi di dollari. Se guardiamo al panorama dell'apprendimento automatico, dell'intelligenza artificiale e dei dati analizzato da Matt Turck Primo segno pubblica ogni anno, è più affollato che mai. Ha 2.011 loghi e ne sono stati aggiunti oltre cinquecento dal 2023. Data la rapida crescita di strumenti e investimenti, DataOps è ora al centro della scena poiché le aziende si stanno rendendo conto che per rendere operative con successo le iniziative sui dati, non possono più semplicemente aggiungere altri ingegneri. Le pratiche DataOps stanno ora diventando il modello per adattare queste iniziative alla produzione. Il recente boom della GenAI renderà questo modello operativo ancora più importante.
A cosa dovrebbero prestare attenzione le aziende quando cercano di creare una strategia sui dati?
Come ho accennato in precedenza, l’investimento in iniziative relative ai dati da parte di dirigenti aziendali, amministratori delegati, CMO, CFO ecc. continua ad essere forte. Questo investimento non è solo finalizzato alla creazione di efficienze incrementali, ma anche a risultati aziendali rivoluzionari e trasformativi. Ciò significa che tre cose diventano molto importanti. Il primo è il chiaro allineamento della strategia dei dati con gli obiettivi aziendali, assicurandosi che i team tecnologici lavorino su ciò che conta di più per l’azienda. In secondo luogo, la qualità dei dati e l'accessibilità, la qualità dei dati è fondamentale. Una scarsa qualità dei dati porterà a insight imprecisi. Altrettanto importante è garantire l’accessibilità dei dati, rendendo i dati giusti disponibili alle persone giuste al momento giusto. Democratizzare l’accesso ai dati, pur mantenendo controlli adeguati, consente ai team di tutta l’organizzazione di prendere decisioni basate sui dati. Il terzo è raggiungere una scala di produzione. La strategia deve garantire che la preparazione operativa sia integrata nelle pratiche di ingegneria dei dati, quindi non è qualcosa che viene preso in considerazione solo dopo il pilotaggio.
Quanto è importante l'orchestrazione dei dati come parte della strategia complessiva di un'azienda?
L'orchestrazione dei dati è senza dubbio il pilastro più importante di DataOps. Nella maggior parte delle organizzazioni i dati sono distribuiti su più sistemi: cloud, locale, database legacy e applicazioni di terze parti. La capacità di integrare e orchestrare queste origini dati disparate in un sistema unificato è fondamentale. Una corretta orchestrazione dei dati garantisce un flusso di dati senza interruzioni tra i sistemi, riducendo al minimo la duplicazione, la latenza e i colli di bottiglia, supportando al tempo stesso un processo decisionale tempestivo.
Secondo i tuoi clienti, quali sono le loro maggiori difficoltà quando si tratta di orchestrazione dei dati?
Le organizzazioni continuano ad affrontare la sfida di fornire rapidamente prodotti basati su dati e quindi di scalare rapidamente la produzione. GenAI ne è un buon esempio. Gli amministratori delegati e i consigli di amministrazione di tutto il mondo chiedono risultati rapidi poiché ritengono che ciò potrebbe disturbare gravemente coloro che non riescono a sfruttarne il potere. GenAI sta diffondendo pratiche come il prompt engineering, il prompt chaining ecc. La sfida è come prendere LLM e database vettoriali, bot ecc. e inserirli nella pipeline di dati più ampia che attraversa un'architettura molto ibrida da cloud multipli a on-prem, incluso mainframe per molti. Ciò non fa altro che ribadire la necessità di un approccio strategico all’orchestrazione che consenta di integrare nuove tecnologie e pratiche per l’automazione scalabile delle pipeline di dati. Un cliente ha descritto Control-M come una ciabatta di orchestrazione in cui è possibile collegare nuove tecnologie e modelli non appena emergono senza dover ricablare ogni volta che si sostituiscono le tecnologie più vecchie con quelle più nuove.
Quali sono i tuoi suggerimenti principali per garantire un'orchestrazione ottimale dei dati?
Possono esserci diversi suggerimenti utili, ma mi concentrerò su uno: l'interoperabilità tra flussi di lavoro di applicazioni e dati, che ritengo sia fondamentale per raggiungere scalabilità e velocità nella produzione. L'orchestrazione delle pipeline di dati è importante, ma è fondamentale tenere presente che queste pipeline fanno parte di un ecosistema più ampio all'interno dell'azienda. Consideriamo che venga distribuita una pipeline ML per prevedere i clienti che probabilmente passeranno a un concorrente. I dati che entrano in tale pipeline sono il risultato di flussi di lavoro eseguiti nell'ERP/CRM e della combinazione di altre applicazioni. Il completamento con successo dei flussi di lavoro dell'applicazione è spesso un prerequisito per attivare i flussi di lavoro dei dati. Una volta che il modello identifica i clienti che probabilmente cambieranno, il passo successivo forse è inviare loro un'offerta promozionale, il che significa che dovremo tornare al livello applicativo nell'ERP e nel CRM. Control-M è in una posizione unica per risolvere questa sfida poiché i nostri clienti lo utilizzano per orchestrare e gestire dipendenze complesse tra l'applicazione e il livello dati.
Quali ritiene siano le principali opportunità e sfide nell’implementazione dell’intelligenza artificiale?
L’intelligenza artificiale e in particolare la GenAI stanno rapidamente aumentando le tecnologie coinvolte nell’ecosistema dei dati. Molti nuovi modelli, database vettoriali e nuovi modelli di automazione relativi al concatenamento di prompt, ecc. Questa sfida non è nuova nel mondo dei dati, ma il ritmo del cambiamento sta accelerando. Dal punto di vista dell'orchestrazione vediamo enormi opportunità con i nostri clienti perché offriamo una piattaforma altamente adattabile per l'orchestrazione in cui possono inserire questi strumenti e modelli nei loro flussi di lavoro esistenti invece di tornare al tavolo da disegno.
Hai qualche caso di studio che potresti condividere con noi di aziende che utilizzano con successo l'intelligenza artificiale?
Domino's Pizza sfrutta Control-M per orchestrare le sue vaste e complesse pipeline di dati. Con oltre 20.000 negozi in tutto il mondo, Domino's gestisce più di 3.000 pipeline di dati che incanalano dati provenienti da diverse fonti come sistemi di catena di fornitura interna, dati di vendita e integrazioni di terze parti. Questi dati provenienti dalle applicazioni devono passare attraverso modelli e modelli di trasformazione complessi prima di essere disponibili per guidare le decisioni relative alla qualità del cibo, alla soddisfazione del cliente e all'efficienza operativa attraverso la sua rete di franchising.
Control-M svolge un ruolo cruciale nell'orchestrazione di questi flussi di lavoro di dati, garantendo un'integrazione perfetta tra un'ampia gamma di tecnologie come MicroStrategy, AMQ, Apache Kafka, Confluent, GreenPlum, Couchbase, Talend, SQL Server e Power BI, solo per citarne alcune.
Oltre a connettere insieme complessi modelli di orchestrazione, Control-M fornisce loro visibilità end-to-end delle pipeline, garantendo che soddisfino rigorosi accordi sul livello di servizio (SLA) gestendo al contempo crescenti volumi di dati. Control-M li aiuta a generare report critici più velocemente, a fornire approfondimenti agli affiliati e ad ampliare l'implementazione di nuovi servizi aziendali.
Cosa possiamo aspettarci da BMC nel prossimo anno?
La nostra strategia per Control-M in BMC rimarrà focalizzata su un paio di principi di base:
Continuare a consentire ai nostri clienti di utilizzare Control-M come unico punto di controllo per l'orchestrazione durante l'integrazione delle tecnologie moderne, in particolare sul cloud pubblico. Ciò significa che continueremo a fornire nuove integrazioni a tutti i principali fornitori di cloud pubblico per garantire che possano utilizzare Control-M per orchestrare i flussi di lavoro attraverso i tre principali modelli di infrastruttura cloud di IaaS, Container e PaaS (Serverless Cloud Services). Intendiamo continuare a concentrarci fortemente sul serverless e vedrai più integrazioni pronte all'uso da Control-M per supportare il modello PaaS.
Riconosciamo che l'orchestrazione aziendale è uno sport di squadra, che implica il coordinamento tra ingegneria, operazioni e utenti aziendali. E, con questo in mente, intendiamo offrire un'esperienza utente e un'interfaccia basate sulla persona in modo che la collaborazione sia senza attriti.
Nello specifico, all'interno di DataOps stiamo esaminando l'intersezione tra orchestrazione e qualità dei dati con un focus specifico nel rendere la qualità dei dati un cittadino di prima classe all'interno dei flussi di lavoro delle applicazioni e dei dati. Restate sintonizzati per ulteriori informazioni su questo fronte!
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com