Combinazione dei file del blog di Rackspace per puntatori AI operativi

 | Intelligenza-Artificiale

In un recente post sul blog, Rackspace fa riferimento ai colli di bottiglia familiari a molti lettori: dati disordinati, proprietà poco chiara, lacune nella governance e costo di gestione dei modelli una volta che diventano parte della produzione. L’azienda li inquadra attraverso la lente dell’erogazione dei servizi, delle operazioni di sicurezza e della modernizzazione del cloud, che indica dove sta investendo i propri sforzi.

Uno degli esempi più chiari di intelligenza artificiale operativa all’interno di Rackspace risiede nel settore della sicurezza. Alla fine di gennaio, la società ha descritto RAIDER (Rackspace Advanced Intelligence, Detection and Event Research) come una piattaforma back-end personalizzata creata per il suo centro interno di difesa informatica. Con i team di sicurezza che lavorano in mezzo a numerosi avvisi e registri, la progettazione di rilevamento standard non è scalabile se dipende dalla scrittura manuale delle regole di sicurezza. Rackspace afferma che il suo sistema RAIDER unifica l’intelligence sulle minacce con i flussi di lavoro di ingegneria di rilevamento e utilizza il suo AI Security Engine (RAISE) e LLM per automatizzare la creazione di regole di rilevamento, generando criteri di rilevamento che descrive come “pronti per la piattaforma” in linea con framework noti come MITRE ATT&CK. L’azienda afferma di sì ridurre i tempi di sviluppo del rilevamento di oltre la metà e tempo medio ridotto per rilevare e rispondere. Questo è proprio il tipo di cambiamento del processo interno che conta.

L’azienda posiziona inoltre l’intelligenza artificiale come un modo per eliminare gli attriti da programmi di ingegneria complessi. Un post di gennaio su modernizzare gli ambienti VMware su AWS descrive un modello in cui gli agenti di intelligenza artificiale gestiscono analisi ad alta intensità di dati e molte attività ripetitive, mantenendo tuttavia “il giudizio architettonico, la governance e le decisioni aziendali” nel dominio umano. Rackspace presenta questo flusso di lavoro come un modo per impedire agli ingegneri senior di essere messi da parte nei progetti di migrazione. L’articolo afferma che l’obiettivo è mantenere nell’ambito delle operazioni del secondo giorno, laddove molti piani di migrazione falliscono quando i team scoprono di aver modernizzato l’infrastruttura ma non le pratiche operative.

Altrove l’azienda delinea un quadro delle operazioni supportate dall’intelligenza artificiale in cui il monitoraggio diventa più predittivo, gli incidenti di routine sono gestiti da bot e script di automazione e la telemetria (oltre ai dati storici) viene utilizzata per individuare modelli e, a sua volta, consigliare soluzioni. Questo è il linguaggio AIOps convenzionale, ma Rackspace sta legando tale linguaggio alla fornitura di servizi gestiti, suggerendo che l’azienda utilizza l’intelligenza artificiale per ridurre il costo della manodopera nelle pipeline operative oltre all’uso più familiare dell’intelligenza artificiale negli ambienti rivolti ai clienti.

Nell’a post che descrive le operazioni abilitate all’intelligenza artificialel’azienda sottolinea l’importanza di focalizzare strategia, governance e modelli operativi. Specifica i meccanismi necessari per industrializzare l’intelligenza artificiale, come la scelta dell’infrastruttura in base al fatto che i carichi di lavoro coinvolgano formazione, messa a punto o inferenza. Molte attività sono relativamente leggere e possono eseguire l’inferenza localmente sull’hardware esistente.

L’azienda ha individuato quattro ostacoli ricorrenti all’adozione dell’intelligenza artificiale, in particolare quello dei dati frammentati e incoerenti, e raccomanda investimenti nell’integrazione e nella gestione dei dati in modo che i modelli abbiano basi coerenti. Questa non è un’opinione esclusiva di Rackspace, ovviamente, ma averla scritta in grande da un grande player tecnologico è illustrativa dei problemi affrontati da molte implementazioni di IA su scala aziendale.

Un’azienda di dimensioni ancora maggiori, Microsoft, sta lavorando per coordinare il lavoro degli agenti autonomi tra i sistemi. Copilot si è evoluto in un livello di orchestrazione e nell’ecosistema Microsoft esistono l’esecuzione di attività in più passaggi e una scelta di modelli più ampia. Tuttavia, è interessante notare che Redmond viene criticato da Rackspace per questo fatto arrivano solo guadagni di produttività quando identità, accesso ai dati e supervisione sono saldamente integrati nelle operazioni.

Il piano AI a breve termine di Rackspace comprende ingegneria della sicurezza assistita dall’intelligenza artificiale, modernizzazione supportata da agenti e gestione dei servizi potenziata dall’intelligenza artificiale. I suoi piani futuri possono forse essere individuati in un articolo di gennaio pubblicato sul blog dell’azienda che riguarda le tendenze dell’intelligenza artificiale nel cloud privato. In esso, l’autore sostiene che l’economia e la governance dell’inferenza guideranno le decisioni sull’architettura fino al 2026. Anticipa l’esplorazione “raffusa” nei cloud pubblici, spostando al contempo le attività di inferenza nei cloud privati ​​per motivi di stabilità dei costi e conformità. Questa è una tabella di marcia per l’intelligenza artificiale operativa fondata sui requisiti di budget e di audit, non sulla novità.

Per i decisori che cercano di accelerare le proprie implementazioni, il punto utile è che Rackspace considera l’intelligenza artificiale come una disciplina operativa. Gli esempi concreti e pubblicati forniti sono quelli che riducono il tempo di ciclo nel lavoro ripetibile. I lettori potrebbero accettare la direzione dell’azienda ed essere comunque diffidenti nei confronti dei parametri dichiarati dall’azienda. I passaggi da intraprendere all’interno di un’azienda in crescita consistono nell’individuare processi ripetitivi, esaminare dove è necessaria una supervisione rigorosa a causa della governance dei dati e dove i costi di inferenza potrebbero essere ridotti portando alcune elaborazioni internamente.

(Fonte immagine: Pixaybay)

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *