AI Deployennt Security and Governance, con Deloitte

 | Intelligenza-Artificiale

Prima dell'evento Techex North America del 4-5 giugno, abbiamo avuto la fortuna di parlare con Kieran Norton, il leader di Cyber ​​AI e Automation degli Stati Uniti di Deloitte, che sarà uno degli oratori alla conferenza del 4 giugno. I 25+ anni di Kieran nel settore significano che, oltre a parlare in modo autorevole su tutte le questioni informatiche sulla sicurezza informatica, i suoi ruoli più recenti includono la consulenza a Deloitte clienti su molte questioni relative alla sicurezza informatica quando si utilizza l'IA nelle applicazioni aziendali.

La maggior parte delle organizzazioni ha messo in atto almeno il minimo indispensabile della sicurezza informatica e per fortuna, nella maggior parte dei casi, gestisce una serie decentemente completa di misure di sicurezza informatica che coprono le comunicazioni, l'archiviazione dei dati e le difese perimetrali.

Tuttavia, negli ultimi due anni, l'IA ha cambiato il quadro, sia in termini di come le aziende possono sfruttare la tecnologia internamente e di come l'IA viene utilizzata nella sicurezza informatica – nel rilevamento avanzato, sia nei nuovi modi in cui la tecnologia viene utilizzata da cattivi attori.

Come a strumento di sicurezza informaticaL'intelligenza artificiale può essere utilizzata nel rilevamento delle anomalie della rete e nello spotting intelligente dei messaggi di phishing, tra gli altri usi. Come a Abilitatore di attivitàL'intelligenza artificiale significa che l'impresa deve essere proattiva per garantire che l'IA venga utilizzata in modo responsabile, bilanciando l'innovazione che AI ​​offre con privacy, sovranità dei dati e rischio.

Considerato un'area relativamente nuova, AI, automazione intelligente, governance dei dati e sicurezza abitualmente abituali a una nicchia. Ma data la crescente presenza di AI nell'impresa, quelle nicchie sono destinate a diventare problemi tradizionali: problemi, soluzioni e consigli che dovranno essere osservati in ogni organizzazione, prima piuttosto che dopo.

Governance e rischio

L'integrazione dell'intelligenza artificiale nei processi aziendali non riguarda esclusivamente la tecnologia e i metodi per la sua distribuzione. I processi interni dovranno cambiare per sfruttare al meglio l'intelligenza artificiale e proteggere meglio il business che utilizza AI quotidianamente. Kieran disegna un parallelo alle precedenti modifiche apportate alle nuove tecnologie: “Avrei correlato (AI) con l'adozione del cloud in cui si trattava di un cambiamento abbastanza significativo. La gente ne capiva i vantaggi e si muoveva in quella direzione, anche se a volte ci voleva più tempo di altri per arrivarci.”

Tali modifiche significano lanciare la rete, per comprendere l'aggiornamento dei quadri di governance, stabilire architetture sicure, anche sfruttare una nuova generazione di specialisti per garantire l'IA e i dati ad essa associati vengono utilizzati in modo sicuro e responsabile. Le aziende che utilizzano attivamente l'IA devono rilevare e correggere la distorsione, testare le allucinazioni, imporre guardrail, gestire dove e da chi viene utilizzato l'IA e altro ancora. Come afferma Kieran: “Probabilmente non stavi facendo molti test per allucinazione, pregiudizio, tossicità, avvelenamento dei dati, vulnerabilità del modello, ecc. Che ora deve far parte del tuo processo”.

Questi sono grandi argomenti e, per l'immagine più completa, sosteniamo che i lettori partecipano ai due colloqui al Nord America di Techex da dare Kieran. Esplorerà entrambe le parti della moneta di intelligenza artificiale: problemi relativi allo spiegamento dell'IA per l'azienda e ai metodi che le aziende possono implementare per scoraggiare e rilevare la nuova razza di malware e vettori di attacco alimentati dall'intelligenza artificiale.

I casi d'uso giusti

Kieran sostiene che le aziende iniziano con implementazioni di intelligenza artificiale più piccole a basso rischio. Mentre alcuni dei primi avvistamenti di AI “in the Wild” sono stati i chatbot, è stato pronto a distinguere tra un chatbot che può rispondere in modo intelligente alle domande dei clienti e degli agenti, che possono agire tramite innescare interazioni con le app e i servizi che il business opera. “Quindi c'è una delineazione (…) i chatbot sono stati uno dei luoghi di partenza primari (…) mentre entriamo in agenti e agenti, che cambia il quadro. Cambia anche la complessità e il profilo di rischio.”

Le istanze di AI agente di AI rivolte ai clienti sono indubbiamente più elevate, poiché un passo falso può avere effetti significativi su un marchio. “Questo è uno scenario a rischio più elevato. In particolare se l'agente sta eseguendo transazioni finanziarie o sta prendendo determinazioni basate sulla copertura sanitaria (…) Non è il primo caso d'uso che si desidera provare.”

“Se collegate insieme 5, 6, 10, 50, cento agenti, stai entrando in una rete di agenzia (…) Le interazioni diventano piuttosto complesse e presenti problemi diversi”, ha detto.

In un certo senso, i problemi relativi all'automazione e alle interfacce da sistema a sistema sono in circolazione da vicino in un decennio. Le sfide di silos di dati e RPA (automazione del processo robotico) sono gli ostacoli che le imprese hanno cercato di saltare per diversi anni. “Devi ancora sapere dove sono i tuoi dati, sapere quali dati hai, avere accesso ad esso (…) i fondamentali sono ancora veri.”

Nell'era AI, le domande fondamentali su infrastrutture, visibilità dei dati, sicurezza e sovranità sono probabilmente più rilevanti. Qualsiasi discussione sull'intelligenza artificiale tende a circondare le stesse questioni, che mette in rilievo le dichiarazioni di Kieran secondo cui una conversazione sull'intelligenza artificiale nell'impresa deve essere ampia e riguardare molte delle basi operative e infrastrutturali dell'impresa.

Kieran sottolinea quindi l'importanza della praticità e una valutazione fondata sulle esigenze e sulla capacità di necessità di un attento esame prima che l'IA possa ottenere un punto d'appoggio. “Se capisci il caso d'uso (…) dovresti avere una buona idea del ROI (…) e quindi se vale o meno il dolore e la sofferenza per costruirlo.”

A Deloitte, l'IA viene utilizzata dove esiste un chiaro caso d'uso con un ritorno misurabile: nel triage iniziale dei biglietti SOC. Qui l'IA agisce come un motore di analisi incidente di livello I. “Sappiamo quanti biglietti vengono generati al giorno (…) Se possiamo prendere il 60-80% delle volte fuori dal processo di triage, allora ciò ha un impatto significativo.” Data la Nasce della tecnologia, che demarca un'area specifica di operazioni in cui l'IA può essere utilizzata agisce sia come prototipo che come prova dell'efficacia. L'intelligenza artificiale non è rivolta al cliente e ci sono esperti altamente qualificati nei loro campi che possono controllare e supervisionare le deliberazioni dell'intelligenza artificiale.

Conclusione

Il messaggio di Kieran per i professionisti delle imprese che indagano sugli usi dell'intelligenza artificiale per le loro organizzazioni non è stato quello di costruire da zero un programma di valutazione e gestione del rischio AI. Invece, le aziende dovrebbero evolvere i sistemi esistenti, avere una chiara comprensione di ciascun caso d'uso ed evitare la trappola della costruzione per il valore teorico.

“Non dovresti creare un altro programma solo per la sicurezza AI oltre a quello che stai già facendo (…) dovresti modernizzare il tuo programma per affrontare le sfumature associate ai carichi di lavoro AI.” Il successo in AI inizia con obiettivi chiari e realistici basati su solide basi.

Puoi leggere di più su Techex North America qui E iscriviti per partecipare. Visita il team Deloitte allo stand #153 e lascia cadere le sessioni il 4 giugno: “assicurarsi lo stack di AI” nella fase di AI e Big Data dalle 9:20 alle 9:50 e “sfruttare l'IA nella sicurezza informatica per la trasformazione aziendale” nella fase di Cybersecurity, 10:20-10:50.

Ulteriori informazioni sulle soluzioni e sulle offerte di servizi di Deloitte per l'IA in Attività commerciale E sicurezza informatica o invia un'email al team a uscyberai@deloitte.com.

(Fonte dell'immagine: “Symposium Cisco Ecole Polytechnique 9-10 aprile 2018 Intelligenza artificiale e sicurezza informatica” di Ecole Polytechnique / Paris / Francia è autorizzato a CC BY-SA 2.0.)

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *