L’intelligenza artificiale sta rapidamente diventando onnipresente nei sistemi aziendali e negli ecosistemi IT, con l’adozione e lo sviluppo che corrono più velocemente di quanto chiunque si sarebbe potuto aspettare. Oggi sembra che ovunque ci rivolgiamo, gli ingegneri del software stiano costruendo modelli personalizzati e integrando l’intelligenza artificiale nei loro prodotti, mentre i leader aziendali incorporano soluzioni basate sull’intelligenza artificiale nei loro ambienti di lavoro.
Tuttavia, l’incertezza sul modo migliore per implementare l’intelligenza artificiale sta impedendo ad alcune aziende di agire. L'ultimo Digital Acceleration Index (DAI) del Boston Consulting Group, un sondaggio globale condotto su 2.700 dirigenti, ha rivelato che lo dice solo il 28%. la loro organizzazione è completamente preparata per la nuova regolamentazione dell’IA.
La loro incertezza è esacerbata dalle normative sull’intelligenza artificiale che arrivano fitte e veloci: il La legge dell’UE sull’IA è in arrivo; L’Argentina ha pubblicato una bozza di piano AI; Il Canada ha l’AI and Data Act; La Cina ha adottato una serie di normative sull’intelligenza artificiale; e le nazioni del G7 hanno lanciato il “processo AI di Hiroshima”. Le linee guida abbondano, con l’OCSE che sviluppa i principi dell’IA, l’ONU che propone un nuovo organo consultivo dell’ONU sull’IA e l’amministrazione Biden che pubblica un progetto per una Carta dei diritti dell’IA (anche se ciò potrebbe cambiare rapidamente con la seconda amministrazione Trump).
La legislazione sta arrivando anche nei singoli stati degli Stati Uniti e sta apparendo in molti quadri industriali. Ad oggi, 21 stati hanno promulgato leggi per regolamentare in qualche modo l’uso dell’IA, incluso il Colourado AI Act e clausole del CCPA della California, più altri 14 stati hanno leggi in attesa di approvazione.
Nel frattempo, ci sono voci forti da entrambi i lati del dibattito sulla regolamentazione dell’IA. Lo rivela un nuovo sondaggio di SolarWinds L'88% dei professionisti IT lo sostiene per una regolamentazione più forte, e una ricerca separata lo rivela Il 91% dei britannici vogliono che il governo faccia di più per ritenere le aziende responsabili dei loro sistemi di intelligenza artificiale. D’altro canto, i leader di oltre 50 aziende tecnologiche recentemente ho scritto una lettera aperta chiedendo una riforma urgente delle pesanti normative dell’UE sull’intelligenza artificiale, sostenendo che soffocano l’innovazione.
È certamente un periodo difficile per i leader aziendali e gli sviluppatori di software, poiché i regolatori si affrettano a mettersi al passo con la tecnologia. Ovviamente vuoi sfruttare i vantaggi che l'intelligenza artificiale può offrire, puoi farlo in un modo che ti renda conforme a qualsiasi requisito normativo in arrivo e non ostacoli inutilmente il tuo utilizzo dell'intelligenza artificiale mentre i tuoi rivali accelerano.
Non abbiamo la sfera di cristallo, quindi non possiamo prevedere il futuro. Ma possiamo condividere alcune migliori pratiche per la creazione di sistemi e procedure che prepareranno il terreno per la conformità normativa sull’IA.
Mappa l'utilizzo dell'intelligenza artificiale nel tuo ecosistema più ampio
Non puoi gestire l'utilizzo dell'intelligenza artificiale del tuo team a meno che tu non ne sia a conoscenza, ma già questo può rappresentare una sfida significativa. Lo Shadow IT è già il flagello dei team di sicurezza informatica: i dipendenti si iscrivono a strumenti SaaS all’insaputa dei dipartimenti IT, lasciando un numero imprecisato di soluzioni e piattaforme con accesso ai dati e/o ai sistemi aziendali.
Ora anche i team di sicurezza devono confrontarsi con l’intelligenza artificiale ombra. Molte app, chatbot e altri strumenti incorporano intelligenza artificiale, machine learning (ML) o programmazione in linguaggio naturale (NLP), senza che tali soluzioni siano necessariamente ovvie soluzioni di intelligenza artificiale. Quando i dipendenti accedono a queste soluzioni senza l'approvazione ufficiale, introducono l'intelligenza artificiale nei tuoi sistemi a tua insaputa.
In qualità di esperto di privacy dei dati di Opice Blum Lo spiega Henrique Fabretti Moraes“La mappatura degli strumenti in uso – o di quelli destinati all’uso – è fondamentale per comprendere e mettere a punto le politiche di utilizzo accettabile e le potenziali misure di mitigazione per ridurre i rischi connessi al loro utilizzo”.
Alcune normative ti ritengono responsabile dell'utilizzo dell'intelligenza artificiale da parte dei fornitori. Per assumere il pieno controllo della situazione, devi mappare tutta l'intelligenza artificiale nel tuo ambiente e in quello delle organizzazioni partner. A questo proposito, utilizzando uno strumento come Armonico può essere determinante nel rilevare l’uso dell’IA lungo la catena di approvvigionamento.
Verificare la governance dei dati
La privacy e la sicurezza dei dati sono preoccupazioni fondamentali per tutte le normative sull’IA, sia quelle già in vigore che quelle sull’orlo dell’approvazione.
L'utilizzo dell'intelligenza artificiale deve già essere conforme alle leggi sulla privacy esistenti come GDPR e CCPR, che richiedono di sapere a quali dati può accedere l'intelligenza artificiale e cosa fa con i dati, nonché di dimostrare misure di protezione per proteggere i dati utilizzati dall'intelligenza artificiale.
Per garantire la conformità, è necessario mettere in atto solide regole di governance dei dati nella propria organizzazione, gestite da un team definito e supportate da controlli regolari. Le vostre politiche dovrebbero includere la due diligence per valutare la sicurezza dei dati e le fonti di tutti i vostri strumenti, compresi quelli che utilizzano l’intelligenza artificiale, per identificare aree di potenziale pregiudizio e rischio per la privacy.
“Spetta alle organizzazioni adottare misure proattive migliorando l’igiene dei dati, applicando una solida etica dell’intelligenza artificiale e riunendo i team giusti per guidare questi sforzi”, disse Rob JohnsonVicepresidente e responsabile globale dell'ingegneria delle soluzioni presso SolarWinds. “Questa posizione proattiva non solo aiuta a garantire la conformità alle normative in evoluzione, ma massimizza anche il potenziale dell’intelligenza artificiale”.
Stabilisci un monitoraggio continuo per i tuoi sistemi di intelligenza artificiale
Un monitoraggio efficace è fondamentale per gestire qualsiasi area della tua attività. Quando si tratta di intelligenza artificiale, come con altre aree della sicurezza informatica, è necessario un monitoraggio continuo per garantire di sapere cosa stanno facendo i tuoi strumenti di intelligenza artificiale, come si comportano e a quali dati accedono. È inoltre necessario controllarli regolarmente per tenere il passo con l’utilizzo dell’intelligenza artificiale nella tua organizzazione.
“L’idea di utilizzare l’intelligenza artificiale per monitorare e regolare altri sistemi di intelligenza artificiale è uno sviluppo cruciale per garantire che questi sistemi siano efficaci ed etici”, disse Cache Merrillfondatore della società di sviluppo software Zibtek. “Attualmente, per monitorare l’intelligenza artificiale vengono utilizzate tecniche come i modelli di apprendimento automatico che prevedono i comportamenti di altri modelli (metamodelli). I sistemi analizzano modelli e risultati dell’intelligenza artificiale operativa per rilevare anomalie, pregiudizi o potenziali guasti prima che diventino critici”.
Piattaforma di automazione Cyber GRC Cypago consente di eseguire il monitoraggio continuo e la raccolta di prove di audit normativo in background. L'automazione senza codice ti consente di impostare funzionalità di flusso di lavoro personalizzate senza competenze tecniche, in modo che gli avvisi e le azioni di mitigazione vengano attivati immediatamente in base ai controlli e alle soglie impostati.
Cypago può connettersi con le tue varie piattaforme digitali, sincronizzarsi praticamente con qualsiasi quadro normativo e trasformare tutti i controlli rilevanti in flussi di lavoro automatizzati. Una volta impostate le integrazioni e i quadri normativi, creare flussi di lavoro personalizzati sulla piattaforma è semplice come caricare un foglio di calcolo.
Utilizzare le valutazioni del rischio come linee guida
È fondamentale sapere quali dei tuoi strumenti di intelligenza artificiale sono ad alto rischio, medio rischio e basso rischio, per la conformità alle normative esterne, per la gestione interna del rischio aziendale e per migliorare i flussi di lavoro di sviluppo software. I casi d’uso ad alto rischio necessiteranno di maggiori garanzie e valutazioni prima dell’implementazione.
“Mentre la gestione del rischio dell’IA può essere avviata in qualsiasi momento dello sviluppo del progetto”, Ayesha Gulley, esperta di politiche sull’intelligenza artificiale di Holistic AI, disse. “Implementare un quadro di gestione del rischio il più presto possibile può aiutare le imprese ad aumentare la fiducia e ad espandersi con sicurezza”.
Quando conosci i rischi posti dalle diverse soluzioni di intelligenza artificiale, puoi scegliere il livello di accesso da concedere loro ai dati e ai sistemi aziendali critici.
In termini di normative, l’EU AI Act distingue già tra sistemi di IA con diversi livelli di rischio e il NIST raccomanda di valutare gli strumenti di IA in base all’affidabilità, all’impatto sociale e al modo in cui gli esseri umani interagiscono con il sistema.
Impostare in modo proattivo la governance etica dell’IA
Non è necessario attendere le normative sull’IA per stabilire politiche etiche sull’IA. Assegnare la responsabilità per le considerazioni etiche sull’IA, riunire team ed elaborare politiche per l’uso etico dell’IA che includano la sicurezza informatica, la convalida dei modelli, la trasparenza, la privacy dei dati e la segnalazione degli incidenti.
Numerosi framework esistenti come AI RMF del NIST e ISO/IEC 42001 consigliano le migliori pratiche di intelligenza artificiale che puoi incorporare nelle tue policy.
“La regolamentazione dell’IA è necessaria e inevitabile per garantirne un uso etico e responsabile. Sebbene ciò possa introdurre complessità, non è necessario che ostacoli l’innovazione”, disse Arik SolomonAmministratore Delegato e cofondatore di Cypago. “Integrando la conformità nei loro quadri interni e sviluppando politiche e processi in linea con i principi normativi, le aziende dei settori regolamentati possono continuare a crescere e innovare in modo efficace”.
Le aziende che possono dimostrare un approccio proattivo all’intelligenza artificiale etica saranno posizionate meglio per la conformità. Le normative sull'intelligenza artificiale mirano a garantire la trasparenza e la riservatezza dei dati, quindi se i tuoi obiettivi sono in linea con questi principi, avrai maggiori probabilità di disporre di politiche conformi alle normative future. IL FairNow La piattaforma può aiutare in questo processo, con strumenti per la gestione della governance dell'intelligenza artificiale, controlli dei pregiudizi e valutazioni del rischio in un'unica posizione.
Non lasciare che la paura della regolamentazione dell'IA ti trattenga
Le normative sull’intelligenza artificiale sono ancora in evoluzione ed emergenti, creando incertezza per aziende e sviluppatori. Ma non lasciare che la situazione fluida ti impedisca di trarre vantaggio dall’intelligenza artificiale. Implementando in modo proattivo policy, flussi di lavoro e strumenti in linea con i principi di privacy dei dati, trasparenza e uso etico, puoi prepararti alle normative sull'intelligenza artificiale e sfruttare le possibilità offerte dall'intelligenza artificiale.
Fonte: www.artificialintelligence-news.com