In che modo una solida governance dell’intelligenza artificiale protegge i margini aziendali

 | Intelligenza-Artificiale

Per proteggere i margini aziendali, i leader aziendali devono investire in una solida governance dell’IA per gestire in modo sicuro l’infrastruttura AI.

Quando si valuta l’adozione del software aziendale, uno schema ricorrente determina il modo in cui la tecnologia matura nei vari settori. Come Rob Thomas, SVP e CCO presso IBMCome recentemente delineato, il software tipicamente passa da un prodotto autonomo a una piattaforma, e poi da una piattaforma a un’infrastruttura fondamentale, alterando completamente le regole che lo governano.

Nella fase iniziale del prodotto, esercitare uno stretto controllo aziendale spesso sembra estremamente vantaggioso. Gli ambienti di sviluppo chiusi eseguono iterazioni rapide e gestiscono in modo rigoroso l’esperienza dell’utente finale. Catturano e concentrano il valore finanziario all’interno di un’unica entità aziendale, un approccio che funziona adeguatamente durante i primi cicli di sviluppo del prodotto.

Tuttavia, l’analisi di IBM evidenzia che le aspettative cambiano completamente quando una tecnologia si consolida in uno strato fondamentale. Una volta che altri quadri istituzionali, mercati esterni e ampi sistemi operativi si affidano al software, gli standard prevalenti si adattano a una nuova realtà. A livello infrastrutturale, abbracciare l’apertura cessa di essere una posizione ideologica e diventa una necessità altamente pratica.

L’intelligenza artificiale sta attualmente superando questa soglia all’interno dello stack dell’architettura aziendale. I modelli sono sempre più integrati direttamente nei modi in cui le organizzazioni proteggono le proprie reti, creano codice sorgente, eseguono decisioni automatizzate e generano valore commerciale. L’intelligenza artificiale funziona meno come un’utilità sperimentale e più come un’infrastruttura operativa fondamentale.

La recente anteprima limitata del modello Claude Mythos di Anthropic mette questa realtà maggiormente a fuoco per i dirigenti aziendali che gestiscono il rischio. Anthropic riferisce che questo modello specifico può scoprire e sfruttare le vulnerabilità del software ad un livello pari a pochi esperti umani.

In risposta a questo potere, Anthropic ha lanciato Project Glasswing, un’iniziativa riservata progettata per mettere queste capacità avanzate direttamente nelle mani dei difensori della rete. Dal punto di vista di IBM, questo sviluppo costringe i responsabili tecnologici a confrontarsi con vulnerabilità strutturali immediate. Se i modelli autonomi possiedono la capacità di scrivere exploit e modellare l’ambiente di sicurezza complessivo, Thomas osserva che concentrare la comprensione di questi sistemi all’interno di un numero limitato di fornitori di tecnologia comporta una grave esposizione operativa.

Con i modelli che raggiungono lo status di infrastruttura, IBM sostiene che il problema principale non è più esclusivamente ciò che queste applicazioni di machine learning possono eseguire. La priorità diventa il modo in cui questi sistemi vengono costruiti, governati, ispezionati e migliorati attivamente per periodi prolungati.

Man mano che le strutture sottostanti crescono in complessità e importanza aziendale, mantenere i canali di sviluppo chiusi diventa estremamente difficile da difendere. Nessun singolo fornitore può anticipare con successo ogni requisito operativo, vettore di attacco o modalità di errore del sistema.

L’implementazione di strutture di intelligenza artificiale opache introduce forti attriti nell’architettura di rete esistente. Il collegamento di modelli proprietari chiusi con database vettoriali aziendali consolidati o data lake interni altamente sensibili crea spesso enormi colli di bottiglia nella risoluzione dei problemi. Quando si verificano risultati anomali o i tassi di allucinazioni aumentano, i team non hanno la visibilità interna necessaria per diagnosticare se l’errore ha avuto origine nella pipeline di generazione potenziata dal recupero o nei pesi del modello base.

L’integrazione dell’architettura legacy on-premise con modelli cloud altamente controllati introduce inoltre una grave latenza nelle operazioni quotidiane. Quando i protocolli di governance dei dati aziendali proibiscono severamente l’invio di informazioni sensibili sui clienti a server esterni, i team tecnologici non possono fare altro che tentare di eliminare e rendere anonimi i set di dati prima dell’elaborazione. Questa costante sanificazione dei dati crea un’enorme resistenza operativa.

Inoltre, i costi di elaborazione vertiginosi associati alle continue chiamate API a modelli bloccati erodono gli esatti margini di profitto che questi sistemi autonomi dovrebbero aumentare. L’opacità impedisce agli ingegneri di rete di dimensionare accuratamente le distribuzioni hardware, costringendo le aziende a costosi accordi di overprovisioning per mantenere le funzionalità di base.

Perché l’intelligenza artificiale open source è essenziale per la resilienza operativa

Limitare l’accesso ad applicazioni potenti è un comprensibile istinto umano che somiglia molto alla cautela. Tuttavia, come sottolinea Thomas, su scala infrastrutturale di grandi dimensioni, la sicurezza in genere migliora attraverso un rigoroso controllo esterno piuttosto che attraverso un rigoroso occultamento.

Questa rappresenta la lezione duratura dello sviluppo di software open source. Il codice open source non elimina i rischi aziendali. Invece, IBM sostiene che sta cambiando attivamente il modo in cui le organizzazioni gestiscono tale rischio. Una base aperta consente a una base più ampia di ricercatori, sviluppatori aziendali e difensori della sicurezza di esaminare l’architettura, evidenziare i punti deboli sottostanti, testare i presupposti fondamentali e rafforzare il software in condizioni reali.

Nell’ambito delle operazioni di sicurezza informatica, l’ampia visibilità raramente è nemica della resilienza operativa. In effetti, la visibilità costituisce spesso un prerequisito rigoroso per raggiungere tale resilienza. Le tecnologie ritenute estremamente importanti tendono a rimanere più sicure quando popolazioni più numerose possono sfidarle, verificarne la logica e contribuire al loro miglioramento continuo.

Thomas affronta uno dei più antichi malintesi riguardo alla tecnologia open source: la convinzione che inevitabilmente mercifichi l’innovazione aziendale. Nell’applicazione pratica, l’infrastruttura aperta in genere spinge la concorrenza di mercato più in alto nello stack tecnologico. I sistemi aperti trasferiscono valore finanziario anziché distruggerlo.

Man mano che le basi digitali comuni maturano, il valore commerciale si sposta verso implementazioni complesse, orchestrazione di sistemi, affidabilità continua, meccanismi di fiducia e competenze in settori specifici. La posizione di IBM afferma che i vincitori commerciali a lungo termine non sono coloro che possiedono lo strato tecnologico di base, ma piuttosto le organizzazioni che capiscono come applicarlo nel modo più efficace.

Abbiamo assistito al manifestarsi di questo modello identico nelle generazioni precedenti di strumenti aziendali, infrastrutture cloud e sistemi operativi. Le fondazioni aperte storicamente hanno ampliato la partecipazione degli sviluppatori, accelerato il miglioramento iterativo e dato vita a mercati completamente nuovi e più ampi, costruiti su questi livelli di base. I leader aziendali considerano sempre più l’open source come estremamente importante per la modernizzazione delle infrastrutture e le capacità emergenti dell’intelligenza artificiale. IBM prevede che è molto probabile che l’intelligenza artificiale segua questa esatta traiettoria storica.

Osservando l’ecosistema più ampio dei fornitori, i principali hyperscaler stanno adattando le proprie posizioni aziendali per adattarsi a questa realtà. Piuttosto che impegnarsi in una pura corsa agli armamenti per costruire le più grandi scatole nere proprietarie, gli integratori altamente redditizi si stanno concentrando fortemente su strumenti di orchestrazione che consentano alle aziende di scambiare i modelli open source sottostanti in base alle specifiche richieste di carico di lavoro. Evidenziando la sua continua leadership in questo ambito, IBM è uno sponsor chiave di quest’anno Expo sull’intelligenza artificiale e sui big data in Nord Americadove queste strategie in evoluzione per le infrastrutture aziendali aperte saranno al centro dell’attenzione.

Questo approccio elude completamente i vincoli restrittivi del fornitore e consente alle aziende di instradare query interne meno impegnative verso modelli aperti più piccoli ed altamente efficienti, preservando costose risorse di elaborazione per la complessa logica autonoma rivolta al cliente. Disaccoppiando il livello applicativo dallo specifico modello di base, i responsabili tecnologici possono mantenere l’agilità operativa e proteggere i propri profitti.

Il futuro dell’intelligenza artificiale aziendale richiede una governance trasparente

Un’altra ragione pragmatica per abbracciare i modelli aperti riguarda l’influenza sullo sviluppo del prodotto. IBM sottolinea che un accesso ristretto al codice sottostante porta naturalmente a prospettive operative ristrette. Al contrario, chi partecipa determina direttamente quali applicazioni verranno eventualmente realizzate.

Fornire un ampio accesso consente a governi, diverse istituzioni, start-up e ricercatori diversi di influenzare attivamente il modo in cui la tecnologia si evolve e dove viene applicata commercialmente. Questo approccio inclusivo guida l’innovazione funzionale e allo stesso tempo costruisce l’adattabilità strutturale e la necessaria legittimità pubblica.

Come sostiene Thomas, una volta IA autonoma assume il ruolo di infrastruttura aziendale centrale, fare affidamento sull’opacità non può più fungere da principio organizzativo per la sicurezza del sistema. Il progetto più affidabile per un software sicuro ha abbinato basi aperte a un ampio controllo esterno, una manutenzione attiva del codice e una seria governance interna.

Mentre l’intelligenza artificiale entra permanentemente nella fase infrastrutturale, IBM sostiene che la logica identica si applica sempre più direttamente ai modelli di base stessi. Quanto più forte è la dipendenza delle imprese da una tecnologia, tanto più forte è la necessità di chiedere apertura.

Se questi flussi di lavoro autonomi stanno davvero diventando fondamentali per il commercio globale, allora la trasparenza cesserà di essere oggetto di dibattito casuale. Secondo IBM, si tratta di un requisito di progettazione assoluto e non negoziabile per qualsiasi architettura aziendale moderna.

Vedi anche: Perché aziende come Apple stanno costruendo agenti AI con limiti

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *