Immagine dell’autore, realizzata con il contributo di DALL.E 3

Rivoluzionare gli sforzi con reti avversarie generative e dati sintetici

introduzione

La recente esplosione di modelli generativi di Intelligenza Artificiale (AI) ha focalizzato l’attenzione del mondo su etica, rischi e preoccupazioni in materia di sicurezza Conferenza di Bletchley Park all’inizio di questo mese si è concretizzato in un impegno per la collaborazione internazionale sulla sicurezza dei sistemi di intelligenza artificiale emergenti. Tuttavia, quegli stessi sistemi possono aiutare ad affrontare sfide simili all’impegno etico negli altri.

La corruzione governativa e i pregiudizi sistemici rappresentano barriere formidabili per la prosperità delle società, ma sono difficili da affrontare. I dati sintetici e l’intelligenza artificiale generativa sotto forma di Generative Adversarial Networks (GAN) offrono la possibilità non solo di individuare pratiche di corruzione, ma anche di anticipare le innovazioni nel modo in cui avviene la corruzione.

La prevalenza e il costo della corruzione nel governo

di Transparency International Indice di percezione della corruzione illustra costantemente la pervasività di questo problema tra i governi. Suo miriadi di forme possono includere clientelismo, tangenti, nepotismo, manipolazione di prove, tangenti e comportamenti simili volti a fornire vantaggi attraverso l’abuso della funzione. C’è un costo finanziario significativo e la Banca Mondiale ha previsto una cifra pari a tale importo 2,6 trilioni di dollari ogni annocon approssimativamente mille miliardi di dollari pagati in tangenti ogni anno in tutto il mondo. Ciò è già sostanziale, ma gli effetti della corruzione si estendono ben oltre. La corruzione danneggia la fiducia nelle istituzioni pubbliche, mina il rispetto delle leggi, minaccia i servizi di base come l’istruzione e la sanità e toglie fondi vitali necessari per affrontare il problema cambiamento climatico. I vantaggi per le persone coinvolte (o che chiudono un occhio) e il potenziale rischio per la sicurezza personale agiscono come un forte deterrente per i testimoni che si fanno avanti. L’intelligenza artificiale offre uno strumento importante per potenziare le unità anticorruzione.

Utilizzo dell’intelligenza artificiale nella lotta alla corruzione

L’intelligenza artificiale entra in gioco quando cerca di dare un senso a dati complessi che hanno un’intricata rete di interconnessioni. Sebbene non diffusi, esistono esempi di IA che identificano comportamenti criminali e corrotti.

Nel 2017, i ricercatori spagnoli Felix Lopez-Iturriaga e Ivan Pastor Sanz hanno utilizzato le reti neurali per costruire un modello predittivo della corruzione nelle province spagnole. Hanno utilizzato dati reali provenienti da un database di casi di corruzione creato da Il quotidiano El Mundoanalizzare gli anni precedenti le eventuali condanne, per identificare potenziali segnali di allarme precoce. Ciò ha consentito al modello di intelligenza artificiale di scoprire relazioni e connessioni invisibili, come l’aumento dei prezzi degli immobili e i casi di corruzione.

L’uso dell’intelligenza artificiale per individuare comportamenti sospetti e proteggersi da attività fraudolente è già diffuso nel mondo settore bancario.

Il sistema ucraino per identificare i rischi negli appalti (PROZORRO) utilizza un programma chiamato DOZOR volti a identificare potenziali comportamenti illeciti negli appalti pubblici. I dati per addestrare l’IA provengono da valutazioni dei rischi effettuate da esperti su circa 3.500 gare d’appalto. Il sistema potrebbe quindi valutare in modo indipendente i rischi di corruzione nelle gare d’appalto e condividere i risultati con gli organismi di vigilanza della società civile. Risultati iniziali suggeriscono che sono stati risparmiati miliardi di dollari, che il governo è più legittimo e, aspetto fondamentale nel contesto attuale, che le società straniere hanno maggiori probabilità di investire.

La Banca Mondiale ha lanciato un progetto basato sull’intelligenza artificiale Piattaforma per la prevenzione della corruzione e la trasparenza degli appalti (ProACT) nel 2021. Utilizzando dati provenienti da fonti aperte in oltre 100 paesi, consente a chiunque di cercare ed esaminare i contratti di appalti pubblici, la loro valutazione di trasparenza e i potenziali rischi per l’integrità.

I sistemi di intelligenza artificiale, tuttavia, si basano sui dati scarsità di dati attendibili negli studi sulla corruzione è una sfida ben documentata. Può essere difficile ottenere dati precisi a causa della natura nascosta delle attività di corruzione, dei documenti che non contengono i dati corretti o che contengono errori, o della mancanza di conoscenza sui nuovi approcci e sistemi per frodare.

Dati sintetici

Un possibile aiuto per molti di questi problemi è l’uso di dati sintetici, ovvero dati generati artificialmente tramite algoritmi, anziché essere raccolti da eventi o processi del mondo reale. Imita dati autentici, rendendolo utile per l’addestramento di modelli di machine learning quando i dati effettivi non sono disponibili, insufficienti o sensibili. I modelli possono apprendere e adattarsi in ambienti che rispecchiano scenari di corruzione del mondo reale, il tutto senza rischiare violazioni della privacy o compromettere dati sensibili.

Dato il livello di complessità delle reti di corruzione e la scarsità di dati, i dati sintetici offrono un livello di granularità essenziale per addestrare l’intelligenza artificiale a rilevare modelli sfumati di corruzione che non compaiono in set di dati più semplici. Costruendo set di dati realistici, i sistemi di intelligenza artificiale sono dotati di strumenti per esplorare, comprendere e prevedere.

Questi set di dati fittizi di alta qualità possono addestrare i sistemi di intelligenza artificiale in scenari diversi e complessi. Questo approccio aumenta la sicurezza e l’anonimato delle persone coinvolte in indagini sensibili e fornisce all’intelligenza artificiale la complessità di riconoscere e prevedere modelli di corruzione.

Inoltre, la ricerca suggerisce che i sistemi di intelligenza artificiale addestrati su dati sintetici possono raggiungere risultati positivi livelli di accuratezza paragonabili a quelli addestrati su dati del mondo realema in una frazione del tempo e senza le complicazioni etiche e legali spesso associate all’utilizzo reale dei dati. Ciò significa che addestrare l’IA con dati sintetici è efficiente e ha maggiori probabilità di tenere il passo con il ritmo del cambiamento portato dai criminali (che usano anche L’intelligenza artificiale per rafforzare i loro approcci).

Reti generative avversarie (GAN): la tecnologia principale

I GAN sono un tipo di tecnologia AI utilizzata per generare dati sintetici che impiegano due reti neurali – il generatore e il discriminatore – in un processo dinamico in cui ciascuna rete impara cercando di superare in astuzia l’altra.

Essendo stato addestrato su dati reali limitati, il Generatore crea scenari sintetici dettagliati di corruzione, mentre il Discriminatore cerca di determinare se ciò che sta esaminando è reale o falso (di nuovo inizialmente attingendo al proprio addestramento limitato su dati reali). È probabile che le creazioni iniziali siano rozze, con il Discriminatore che identifica facilmente la risposta giusta. Tuttavia, il Generatore impara da questo e migliora le sue produzioni. Man mano che i dati del Generatore diventano sempre più realistici, anche la capacità di differenziazione del Discriminatore si affina. Questo processo iterativo continua fino a quando i dati sintetici finali non sono una replica fedele degli scenari reali e potenziali del mondo reale e dei modelli sfumati di corruzione.

I dati che ne emergono aggirano i problemi associati ai dati della vita reale sopra menzionati, in particolare per quanto riguarda i vincoli di disponibilità limitata e la privacy/segretezza dei dati. Questo database sintetico viene quindi utilizzato come base per addestrare specifici sistemi di intelligenza artificiale a svolgere attività di previsione, rilevamento o analisi della corruzione.

La differenza con i dati sintetici generati dai GAN

L’aumento della quantità e della complessità dei dati sintetici generati dai GAN consente ai governi e agli organismi di regolamentazione di migliorare le loro capacità di rilevamento, rendendoli più abili nell’identificare forme sottili e complesse di corruzione che altrimenti potrebbero passare inosservate.

Simulando un’ampia gamma di scenari di corruzione, i GAN aiutano a creare strumenti di intelligenza artificiale che sono sia reattivi (individuando incidenti corrotti) che proattivi (identificando lo sviluppo di scenari di vita reale che hanno crescenti probabilità di portare alla corruzione). I sistemi di intelligenza artificiale addestrati sui dati sintetici possono apprendere da un’ampia varietà di potenziali scenari di corruzione, compresi quelli che potrebbero non essere ben rappresentati o disponibili nei dati del mondo reale. Ciò significa che il sistema di intelligenza artificiale aumenta la sua comprensione dei modelli di corruzione e sviluppa sistemi più robusti e intelligenti per combatterli

La Banca Mondiale ne ha identificati diversi modi in cui il comportamento corrotto potrebbe evolversicompresa l’introduzione di complessi modelli di dati e piattaforme digitali per nascondere attività corrotte, l’uso di professionisti (banchieri, avvocati e contabili) come facilitatori attraverso reti sofisticate e metodi di corruzione più intricati per eludere i nuovi standard internazionali.

Man mano che cresce la capacità di intraprendere attività corrotte, anche gli sforzi anti-corruzione devono diventare più sofisticati. La velocità con cui l’intelligenza artificiale può generare, testare e rigenerare scenari, e la gamma di impostazioni che può creare, apre la possibilità di tenere il passo – o addirittura superare – il ritmo di questo cambiamento.

Dimensioni etiche e preoccupazioni sulla privacy

Sebbene l’uso di dati sintetici riduca i rischi per la privacy, la fase di formazione iniziale per svilupparlo richiede dati reali provenienti da registri governativi, rapporti di audit, dati di conformità, database del settore pubblico, documenti legali e normativi, nonché rapporti e reclami di informatori. Ciò comporta comprensibilmente diversi rischi:

1. Informazione sensibile: i dati elaborati in un contesto governativo spesso includono dettagli personali, file governativi riservati o documenti finanziari sensibili. Le informazioni contenute nelle offerte di appalto sono invariabilmente riservate a livello commerciale.

2. Incorporamento dei pregiudizi: Eventuali pregiudizi o discriminazioni (esplicite o implicite) contenute nei dati iniziali possono influenzare il sistema successivo. Ad esempio, la precedente discriminazione di genere o razziale nel processo decisionale, nelle nomine o nei ruoli – per quanto sottile – sarà considerata parte della “verità” di base su cui la macchina costruisce la sua conoscenza.

3. Rischio di uso improprio o violazione dei dati: i sistemi di IA governativi potrebbero essere presi di mira per scopi dannosi, a causa del loro accesso a set di dati di grandi dimensioni e potenzialmente riservati, con conseguente violazione dei dati o uso improprio delle informazioni.

4. Sviluppo etico dell’intelligenza artificiale: poiché i sistemi di intelligenza artificiale sono addestrati a rilevare modelli di corruzione, devono farlo senza violare i diritti individuali o creare nuovi dilemmi etici.

5. Conformità legale: Leggi sempre più stringenti sulla protezione dei dati regolano il trattamento dei dati personali (ad es GDPR).

6. Mantenere la fiducia pubblica: La fiducia nelle istituzioni pubbliche può essere erosa se si ritiene che gli strumenti di intelligenza artificiale violino la privacy o non siano etici.

Le azioni concrete per mitigare i rischi sopra elencati includono il rispetto dei quadri giuridici applicabili, l’implementazione di solide garanzie sulla privacy, revisioni di esperti sui dati di apprendimento per individuare eventuali pregiudizi, garanzie per l’uso dei dati personali e trasparenza per il pubblico sul modo in cui le norme etiche vengono rispettate. Un approccio proattivo aumenterà la legittimità e l’affidabilità dell’IA in fase di sviluppo e ridurrà il rischio che eventuali successivi procedimenti giudiziari per corruzione siano compromessi da sfide ai sistemi utilizzati.

Introdurre GAN e dati sintetici nei sistemi anticorruzione governativi

Il diagramma seguente fornisce un esempio di dove i GAN e i dati sintetici generati verrebbero introdotti in un sistema di rilevamento della corruzione dell’IA.

Fonte: towardsdatascience.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *