In che modo Standard Chartered gestisce l’intelligenza artificiale nel rispetto delle norme sulla privacy

 | Intelligenza-Artificiale

Per le banche che cercano di mettere in pratica l’intelligenza artificiale, le domande più difficili spesso arrivano prima che qualsiasi modello venga addestrato. I dati possono essere utilizzati? Dove è consentito conservarlo? Chi è responsabile una volta che il sistema entra in funzione? Presso Standard Chartered, queste domande basate sulla privacy ora determinano il modo in cui i sistemi di intelligenza artificiale vengono costruiti e distribuiti in banca.

Per le banche globali che operano in molte giurisdizioni, queste decisioni iniziali raramente sono semplici. Le norme sulla privacy differiscono a seconda del mercato e lo stesso sistema di intelligenza artificiale può trovarsi ad affrontare vincoli molto diversi a seconda di dove viene utilizzato. Presso Standard Chartered, ciò ha spinto i team dedicati alla privacy ad assumere un ruolo più attivo nel definire il modo in cui i sistemi di intelligenza artificiale vengono progettati, approvati e monitorati all’interno dell’organizzazione.

“Le funzioni di privacy dei dati sono diventate il punto di partenza della maggior parte delle normative sull’intelligenza artificiale”, afferma David Hardoon, responsabile globale dell’AI Enablement presso Standard Chartered. In pratica, ciò significa che i requisiti sulla privacy determinano il tipo di dati che possono essere utilizzati nei sistemi di intelligenza artificiale, quanto trasparenti devono essere tali sistemi e il modo in cui vengono monitorati una volta che sono attivi.

La privacy influenza il funzionamento dell’intelligenza artificiale

La banca sta già utilizzando sistemi di intelligenza artificiale in ambienti live. La transizione dai progetti pilota comporta sfide pratiche che è facile sottovalutare nella fase iniziale. Negli studi di piccole dimensioni, le fonti dei dati sono limitate e ben comprese. Nella produzione, i sistemi di intelligenza artificiale spesso estraggono dati da molte piattaforme a monte, ciascuna con la propria struttura e problemi di qualità. “Quando si passa da un progetto pilota contenuto a operazioni live, garantire la qualità dei dati diventa più impegnativo con più sistemi upstream e potenziali differenze di schema”, afferma Hardoon.

David Hardoon, responsabile globale dell’abilitazione dell’intelligenza artificiale presso Standard Chartered

Le norme sulla privacy aggiungono ulteriori vincoli. In alcuni casi, i dati reali dei clienti non possono essere utilizzati per addestrare i modelli. Invece, i team possono fare affidamento su dati anonimizzati, che possono influenzare la velocità con cui i sistemi vengono sviluppati o il loro rendimento. Le implementazioni live operano anche su scala molto più ampia, aumentando l’impatto di eventuali lacune nei controlli. Come afferma Hardoon, “Nell’ambito di un’adozione responsabile e incentrata sul cliente dell’intelligenza artificiale, diamo priorità al rispetto dei principi di equità, etica, responsabilità e trasparenza man mano che l’ambito del trattamento dei dati si espande”.

La geografia e la regolamentazione decidono dove funziona l’intelligenza artificiale

Anche il luogo in cui i sistemi di intelligenza artificiale vengono costruiti e distribuiti dipende dalla geografia. Le leggi sulla protezione dei dati variano da regione a regione e alcuni paesi impongono regole rigide su dove devono essere archiviati i dati e chi può accedervi. Questi requisiti svolgono un ruolo diretto nel modo in cui Standard Chartered implementa l’intelligenza artificiale, in particolare per i sistemi che si basano su informazioni del cliente o di identificazione personale.

“La sovranità dei dati è spesso una considerazione chiave quando si opera in mercati e regioni diversi”, afferma Hardoon. Nei mercati con regole di localizzazione dei dati, potrebbe essere necessario implementare i sistemi di intelligenza artificiale a livello locale o progettati in modo tale che i dati sensibili non oltrepassino i confini. In altri casi, è possibile utilizzare piattaforme condivise, a condizione che siano in atto i giusti controlli. Ciò si traduce in un mix di implementazioni di IA globali e specifiche del mercato, modellate dalla regolamentazione locale e non da un’unica preferenza tecnica.

Gli stessi compromessi compaiono nelle decisioni sulle piattaforme di intelligenza artificiale centralizzate rispetto alle soluzioni locali. Le grandi organizzazioni spesso mirano a condividere modelli, strumenti e supervisione sui mercati per ridurre le duplicazioni. Le leggi sulla privacy non sempre bloccano questo approccio. “In generale, le norme sulla privacy non proibiscono esplicitamente il trasferimento di dati, ma piuttosto si aspettano che siano messi in atto controlli adeguati”, afferma Hardoon.

Esistono dei limiti: alcuni dati non possono essere spostati all’interno dei confini nazionali e alcune leggi sulla privacy si applicano oltre il Paese in cui sono stati raccolti i dati. I dettagli possono limitare quali mercati può servire una piattaforma centrale e dove i sistemi locali rimangono necessari. Per le banche, questo spesso porta a una configurazione a più livelli, con basi condivise combinate con casi d’uso dell’IA localizzati laddove la regolamentazione lo richiede.

Il controllo umano rimane centrale

Man mano che l’intelligenza artificiale diventa sempre più integrata nei processi decisionali, le domande sulla spiegabilità e sul consenso diventano più difficili da evitare. L’automazione può accelerare i processi, ma non elimina la responsabilità. “La trasparenza e la spiegabilità sono diventate più cruciali di prima”, afferma Hardoon. Anche quando si lavora con fornitori esterni, la responsabilità rimane interna. Ciò ha rafforzato la necessità di una supervisione umana nei sistemi di intelligenza artificiale, in particolare laddove i risultati influiscono sui clienti o sugli obblighi normativi.

Anche le persone svolgono un ruolo più importante nel rischio per la privacy rispetto alla sola tecnologia. Processi e controlli possono essere ben progettati, ma dipendono da come il personale comprende e gestisce i dati. “Le persone rimangono il fattore più importante quando si tratta di implementare i controlli sulla privacy”, afferma Hardoon. Presso Standard Chartered, ciò ha spinto l’attenzione sulla formazione e sulla consapevolezza, in modo che i team sappiano quali dati possono essere utilizzati, come dovrebbero essere gestiti e dove si trovano i confini.

Per ridimensionare l’intelligenza artificiale sotto un crescente controllo normativo è necessario rendere la privacy e la governance più facili da applicare nella pratica. Un approccio adottato dalla banca è la standardizzazione. Creando modelli, architetture e classificazioni di dati preapprovati, i team possono muoversi più velocemente senza aggirare i controlli. “La standardizzazione e la riutilizzabilità sono importanti”, spiega Hardoon. La codifica delle regole relative alla residenza, alla conservazione e all’accesso dei dati aiuta a trasformare requisiti complessi in componenti più chiari che possono essere riutilizzati nei progetti di intelligenza artificiale.

Poiché sempre più organizzazioni utilizzano l’intelligenza artificiale nelle operazioni quotidiane, la privacy non è solo un ostacolo alla conformità. Sta modellando il modo in cui vengono costruiti i sistemi di intelligenza artificiale, dove funzionano e quanta fiducia possono guadagnare. Nel settore bancario, questo cambiamento sta già influenzando l’aspetto pratico dell’intelligenza artificiale e i limiti in cui vengono fissati.

(Foto di Sedi aziendali)

Vedi anche: Il lavoro silenzioso dietro il lancio dell’intelligenza artificiale interna di Citi da parte di 4.000 persone

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici, clicca Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *