In vista dell’AI & Big Data Expo presso il San Jose McEnery Convention Center, dal 18 al 19 maggio, abbiamo parlato con Jerome Gabryszewski, AI & Data Science Business Development Manager dell’azienda, dell’intelligenza artificiale, dell’elaborazione dei dati per l’acquisizione dell’intelligenza artificiale e del calcolo locale rispetto al cloud computing.
I media tecnologici amano ripetere che i dati sono “il nuovo petrolio”, ma la realtà sul campo è che, pur avendo accesso a numerose informazioni di prima parte, sfruttarle effettivamente a vantaggio dell’azienda può rivelarsi problematico, soprattutto su scala aziendale.
Dovresti scegliere un modello di intelligenza artificiale ospitato nel cloud o un calcolo locale? Come puoi mettere in ordine la tua “casa dei dati” in modo che i modelli intelligenti possano produrre risultati significativi? E come sempre, ci piace incoraggiare i nostri intervistati ad aiutarci a prevedere il prossimo capitolo nella storia in rapido movimento dell’IT aziendale in questo panorama aziendale dominato dall’intelligenza artificiale.
Notizie sull’intelligenza artificiale: il passaggio dall’acquisizione manuale dei dati a quella automatizzata sembra fantastico in teoria, ma è notoriamente difficile. Dove HP vede le aziende bloccarsi in questo momento?
Uno dei punti di attrito più consistenti che osserviamo è che le organizzazioni sottovalutano il debito organizzativo e architetturale dietro i propri dati. Prima che l’automazione possa prendere piede, devono riconciliare la proprietà frammentata dei dati tra i dipartimenti, gli schemi incoerenti nei sistemi e l’infrastruttura legacy che non è mai stata progettata per l’interoperabilità. Il progresso tecnico dell’automazione è spesso inferiore al lavoro di governance e integrazione che deve precederlo.
Notizie sull’intelligenza artificiale: quando i modelli di intelligenza artificiale iniziano ad aggiornarsi continuamente, le cose possono facilmente andare storte. Come consigliate ai clienti di gestire rischi quali la deriva dei concetti e l’avvelenamento dei dati?
L’apprendimento continuo è il luogo in cui l’intelligenza artificiale passa da un progetto a una responsabilità se non è governata attentamente. Ciò che consigliamo ai clienti è di trattare gli aggiornamenti del modello nello stesso modo in cui trattano le distribuzioni del codice. Niente va in produzione senza un gate di convalida. Per la deriva dei concetti, ciò significa pipeline MLOps con rilevamento automatico della deriva e trigger human-in-the-loop prima che entri in azione la riqualificazione. Per l’avvelenamento dei dati, è un problema di provenienza dei dati tanto quanto un problema di sicurezza. È fondamentale sapere esattamente da dove provengono i dati di allenamento e chi può toccarli. I clienti che riescono a farlo bene non sono necessariamente i più sofisticati dal punto di vista tecnico; Sono coloro che hanno incorporato la governance dell’intelligenza artificiale nei loro quadri di rischio prima che si espandessero.
Notizie sull’intelligenza artificiale: voglio toccare le radici dell’hardware HP. Che aspetto deve avere oggi una moderna workstation o una configurazione informatica per gestire l’enorme peso di un ciclo di vita autonomo dell’intelligenza artificiale?
Le radici di HP qui contano davvero. La serie Z è stata creata appositamente per l’elaborazione professionale più esigente da oltre 15 anni, quindi quando parliamo di ciò che un ciclo di vita di intelligenza artificiale autonoma richiede effettivamente dall’hardware, non indoviniamo, stiamo ripetendo questo problema da più tempo di molti altri!
La risposta non è una singola macchina, è uno spettro. A livello di singolo sviluppatore, è necessario un calcolo locale sufficientemente potente da eseguire esperimenti reali senza dipendere dal cloud per ogni iterazione. ZBook Ultra e Z2 Mini gestiscono macchine mobili e compatte di livello professionale da scrivania in grado di eseguire LLM locali e flussi di lavoro pesanti contemporaneamente.
ZGX Nano è il luogo in cui le cose si fanno davvero interessanti per i team che puntano sull’intelligenza artificiale. È un supercomputer AI che sta nel palmo di una mano (15×15 cm), ma è alimentato dal superchip NVIDIA GB10 Grace Blackwell con 128 GB di memoria unificata e 1.000 TOPS di prestazioni AI FP4. Una singola unità gestisce localmente modelli fino a 200 miliardi di parametri. E quando un team ha bisogno di andare oltre, colleghi due unità insieme tramite interconnessione ad alta velocità e lavori con modelli fino a 405 miliardi di parametri… niente cloud, niente data center, niente code. Viene fornito preconfigurato con lo stack software NVIDIA DGX e il kit di strumenti HP ZGX, così i team passano dalla configurazione al primo flusso di lavoro in pochi minuti, non in giorni.
Andando avanti, Z8 Fury offre ai team di utenti esperti fino a quattro GPU NVIDIA RTX PRO 6000 Blackwell in un unico sistema (VRAM da 384 GB): questo è l’intero ciclo di sviluppo del modello in esecuzione on-premise. E alla frontiera, lo ZGX Fury cambia completamente il discorso. Alimentato dal superchip NVIDIA GB300 Grace Blackwell Ultra con 748 GB di memoria coerente, fornisce inferenza di trilioni di parametri alla scrivania, non al data center. Per i team che eseguono perfezionamenti e inferenze continue su dati sensibili, in genere il costo si ammortizza in 8-12 mesi rispetto al cloud computing equivalente.
E per le organizzazioni che necessitano di clustering e scalabilità ulteriore, l’intero portafoglio Z è progettato con fattori di forma pronti per rack che si adattano agli ambienti IT gestiti senza compromettere la sicurezza o la residenza dei dati.

Il punto più importante è questo; il ciclo di vita autonomo dell’IA crea un problema di governance e di latenza, non un problema di calcolo. I team non possono continuare a inviare dati di addestramento sensibili al cloud ogni volta che un modello deve essere aggiornato. Il portafoglio HP offre alle organizzazioni un percorso hardware che si adatta alla maturità del flusso di lavoro, dalla scrivania dello sviluppatore fino all’elaborazione on-premise distribuita. L’hardware finalmente corrisponde all’ambizione di ciò che questi sistemi di intelligenza artificiale devono effettivamente fare.
Notizie sull’intelligenza artificiale: i costi di elaborazione dell’intelligenza artificiale stanno aumentando vertiginosamente per molte aziende. Qual è la soluzione pratica per bilanciare questa spesa enorme con l’efficienza del cloud moderno?
Il problema dei costi è strutturale, non ciclico. La spesa per la generazione di intelligenza artificiale aziendale è salita a 37 miliardi di dollari nel 2025 e l’80% delle aziende non ha ancora rispettato le previsioni sui costi di oltre il 25%. La tensione fondamentale è che i costi di inferenza unitaria stanno effettivamente diminuendo, ma la spesa totale continua ad aumentare perché l’uso cresce più velocemente della diminuzione dei costi. Il modello API cloud è stato progettato per carichi di lavoro sperimentali a basso volume. Non è mai stato costruito per essere il motore economico per la produzione di IA su larga scala.
La soluzione pratica è un problema disciplinare prima che un problema infrastrutturale: tracciare una linea netta tra lavoro esplorativo e carichi di lavoro di produzione e non utilizzare mai lo stesso modello di calcolo per entrambi. Il lavoro iterativo iniziale (prototipazione, messa a punto, valutazione del modello) dovrebbe essere eseguito su hardware locale come ZGX Nano o Z8 Fury, dove si spende il capitale una volta invece di bruciare il budget operativo in esperimenti senza un chiaro percorso di ROI.
Le organizzazioni che riescono a farlo correttamente utilizzano un modello a tre livelli: cloud per la formazione burst e l’accesso al modello di frontiera che hai veramente guadagnato, infrastruttura HP Z locale per inferenza prevedibile ad alto volume ed edge computing dove la latenza è critica. Analisi indipendenti mostrano che le soluzioni on-premise possono offrire un vantaggio in termini di costi fino a 18 volte superiore per milione di token in un ciclo di vita di cinque anni. Il quadro che utilizziamo con i clienti è semplice: il cloud è per la scala che hai guadagnato, non per la scala che speri.”
Notizie sull’intelligenza artificiale: tutti vogliono che i propri dati proprietari siano “pronti per l’intelligenza artificiale”. Come fanno le aziende a farcela senza esporre informazioni sensibili o isolate?
L’errore commesso dalla maggior parte delle aziende è quello di trattare i “dati pronti per l’intelligenza artificiale” come un problema di ingegneria dei dati quando in realtà si tratta di un problema di sovranità dei dati, e questi richiedono soluzioni diverse. L’invio di dati proprietari a un modello cloud per l’elaborazione non è solo un rischio di esposizione, è un fallimento della governance in attesa di verificarsi, soprattutto nei settori regolamentati dove anche l’atto di trasmettere dati all’esterno può innescare violazioni di conformità.
L’architettura che risolve questo problema è la Retrieval-Augmented Generation (RAG) in esecuzione sull’infrastruttura locale, che consente a un modello di recuperare il contesto rilevante dalla knowledge base interna al momento della query senza mai esercitarsi su di esso o esporlo all’esterno. I tuoi dati proprietari rimangono on-premise, all’interno dell’hardware che controlli. Ad esempio, uno ZGX Nano o Z8 Fury che esegue un modello ospitato localmente può alimentare una pipeline RAG completa contro documenti interni sensibili senza che i dati lascino l’edificio e nessuna spesa di token venga inviata a terzi.
Il livello di controllo degli accessi è il punto in cui tutto ciò diventa operativamente serio; un sistema RAG ben architettato applica autorizzazioni basate sui ruoli a livello di recupero, in modo che l’intelligenza artificiale faccia emergere solo ciò che un determinato dipendente ha diritto di vedere, allo stesso modo del sistema di gestione dei documenti. La combinazione di elaborazione locale, modello locale, recupero locale e accesso regolamentato è ciò che rende effettivamente i dati proprietari pronti per l’intelligenza artificiale senza esposizione.
Le aziende che riescono a farlo bene non inviano i loro gioielli della corona al cloud per essere elaborati; stanno portando l’intelligenza nei dati, non viceversa.
Notizie sull’intelligenza artificiale: se combiniamo l’intelligenza artificiale autonoma con queste moderne piattaforme cloud, cosa accadrà al ruolo quotidiano di un team IT aziendale nei prossimi due anni?
Penso che Jensen Huang abbia spiegato meglio questo concetto. Ha detto che il nostro lavoro non è gestire un foglio di calcolo o scrivere su una tastiera, che il nostro lavoro è generalmente più significativo di così. E ha tracciato una netta distinzione tra il compito di un lavoro e il suo scopo. Nell’IT, ad esempio, l’attività potrebbe essere il provisioning dei server o la valutazione degli incidenti, ma lo scopo è mantenere l’azienda resiliente e andare avanti. Questa distinzione è esattamente ciò che sta accadendo in questo momento.
Gartner prevede che il 40% delle applicazioni aziendali avrà agenti IA incorporati entro la fine del 2026, rispetto a meno del 5% di solo un anno fa, il che significa che il livello di esecuzione di routine dell’IT viene assorbito rapidamente, ma il livello di governance e architettura si sta espandendo altrettanto rapidamente. Ciò che sta già accadendo nelle organizzazioni leader è il passaggio dall’esecuzione dei compiti da parte dei team IT alla progettazione e gestione degli agenti che operano per loro conto.
Il divario importante è che solo un’azienda su cinque dispone ancora di un modello di governance maturo. È qui che l’infrastruttura local-first conta ancora una volta. Quando il tuo livello di automazione viene eseguito sull’hardware che controlli, hai piena osservabilità sul comportamento degli agenti che semplicemente non hai quando tali carichi di lavoro vengono astratti nel cloud. Il team IT dei prossimi due anni non sarà il team che terrà le luci accese. Saranno i team a decidere quali agenti fidarsi di quali decisioni e ad assicurarsi che l’infrastruttura alla base di tale giudizio sia qualcosa che l’azienda può effettivamente sostenere.
(Fonte immagine: Pixabay, licenza.)
Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Dai un’occhiata a Fiera dell’intelligenza artificiale e dei big data Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. Questo evento completo fa parte di TechEx e co-localizzato con altri importanti eventi tecnologici. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com

