L’UE si è mossa per regolamentare l’apprendimento automatico. Cosa significa questa nuova legge per i data scientist?
L’EU AI Act è appena passato al Parlamento Europeo. Potresti pensare: “Non faccio parte dell'UE, comunque”, ma credimi, questo è in realtà più importante per i data scientist e gli individui di tutto il mondo di quanto potresti pensare. L’EU AI Act rappresenta un’importante mossa per regolamentare e gestire l’uso di determinati modelli di machine learning nell’UE o che interessano i cittadini dell’UE, e contiene alcune regole rigide e gravi sanzioni in caso di violazione.
In questa legge si discute molto del rischio, e questo significa rischio per la salute, la sicurezza e i diritti fondamentali dei cittadini dell’UE. Non si tratta solo del rischio di una sorta di apocalisse teorica dell'IA, ma del rischio quotidiano che la vita delle persone reali venga in qualche modo peggiorata dal modello che stai costruendo o dal prodotto. stai vendendo. Se hai familiarità con molti dibattiti sull’etica dell’IA oggi, questo dovrebbe suonarti familiare. La discriminazione radicata e la violazione dei diritti delle persone, così come i danni alla salute e alla sicurezza delle persone, sono problemi seri che l’attuale raccolta di prodotti e aziende di intelligenza artificiale deve affrontare, e questa legge rappresenta il primo sforzo dell’UE per proteggere persone.
I lettori abituali sanno che desidero sempre che l'”intelligenza artificiale” sia ben definita e sono infastidito quando è troppo vago. In questo caso, la legge definisce l'“AI” come segue:
Un sistema basato su macchina progettato per funzionare con diversi livelli di autonomia che può mostrare adattività dopo l'implementazione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
Quindi, cosa significa veramente questo? La mia interpretazione è che i modelli di apprendimento automatico che producono output utilizzati per influenzare il mondo (in particolare le condizioni fisiche o digitali delle persone) rientrano in questa definizione. Non è necessario che si adatti dal vivo o si riqualifica automaticamente, anche se se lo fa è coperto.
Ma se stai costruendo modelli ML utilizzati per fare cose come…
- decidere sui livelli di rischio delle persone, come il rischio di credito, il rischio di violazione di norme o leggi, ecc
- determinare quali contenuti vengono mostrati alle persone online in un feed o negli annunci
- differenziare i prezzi mostrati a persone diverse per gli stessi prodotti
- consigliare il trattamento, la cura o i servizi migliori per le persone
- consigliare se le persone intraprendono determinate azioni o meno
Tutti questi saranno coperti da questa legge, se il tuo modello ha effetto su chiunque sia cittadino dell’UE – e questo è solo per citare alcuni esempi.
Tuttavia, l’intelligenza artificiale non è tutta uguale e la legge lo riconosce. Alcune applicazioni dell’intelligenza artificiale saranno completamente vietate e altre saranno soggette a requisiti di controllo e trasparenza molto più elevati.
Sistemi di intelligenza artificiale a rischio inaccettabile
Questi tipi di sistemi sono ora chiamati “sistemi di intelligenza artificiale a rischio inaccettabile” e lo sono semplicemente non è consentito. Questa parte della legge entrerà in vigore per prima, tra sei mesi.
- Manipolazione comportamentale o tecniche ingannevoli per indurre le persone a fare cose che altrimenti non farebbero
- Prendere di mira le persone a causa di fattori quali l'età o la disabilità per modificare il loro comportamento e/o sfruttarle
- Sistemi di categorizzazione biometrica, per cercare di classificare le persone in base a tratti altamente sensibili
- Valutazioni delle caratteristiche della personalità che portano al punteggio sociale o al trattamento differenziale
- Identificazione biometrica “in tempo reale” per le forze dell'ordine al di fuori di una serie selezionata di casi d'uso (ricerca mirata di persone scomparse o rapite, minaccia imminente alla vita o alla sicurezza/terrorismo o perseguimento di un crimine specifico)
- Polizia predittiva (prevedere che le persone commetteranno crimini in futuro)
- Ampio riconoscimento facciale/scansione biometrica o scraping dei dati
- Sistemi di deduzione delle emozioni nell'istruzione o nel lavoro senza uno scopo medico o di sicurezza
Ciò significa, ad esempio, che non puoi costruire (o essere costretto a sottoporsi a) uno screening inteso a determinare se sei abbastanza “felice” da ottenere un lavoro nel settore della vendita al dettaglio. Il riconoscimento facciale viene limitato solo a situazioni selezionate, mirate e specifiche. (Clearview AI ne è sicuramente un esempio.) La polizia predittiva, qualcosa su cui ho lavorato in ambito accademico all'inizio della mia carriera e che ora rimpiango molto, è fuori uso.
Il punto di “categorizzazione biometrica” si riferisce a modelli che raggruppano persone che utilizzano tratti rischiosi o sensibili come convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza e così via. L’uso dell’intelligenza artificiale per cercare di etichettare le persone in base a queste categorie è comprensibilmente vietato dalla legge.
Sistemi di IA ad alto rischio
Questo elenco, d’altro canto, copre i sistemi che non sono vietati, ma attentamente controllati. Esistono norme e regolamenti specifici che copriranno tutti questi sistemi, descritti di seguito.
- L’intelligenza artificiale nei dispositivi medici
- L'intelligenza artificiale nei veicoli
- L’intelligenza artificiale nei sistemi di riconoscimento delle emozioni
- L’intelligenza artificiale nella polizia
Sono esclusi i casi d'uso specifici descritti sopra. Quindi, i sistemi di riconoscimento delle emozioni potrebbero essere consentiti, ma non sul posto di lavoro o nell’istruzione. Si ritiene giustamente che l’intelligenza artificiale nei dispositivi medici e nei veicoli presenti rischi gravi o potenziali per la salute e la sicurezza e deve essere perseguita solo con grande attenzione.
Altro
Le altre due categorie che rimangono sono i “sistemi di IA a basso rischio” e i “modelli di IA per scopi generali”. I modelli per uso generale sono cose come GPT-4, o Claude o Gemini, sistemi che hanno casi d'uso molto ampi e sono solitamente impiegati all'interno di altri prodotti a valle. Pertanto, GPT-4 di per sé non rientra in una categoria ad alto rischio o vietata, ma i modi in cui puoi incorporarli per l'uso sono limitati dalle altre regole qui descritte. Non è possibile utilizzare GPT-4 per la polizia predittiva, ma GPT-4 può essere utilizzato per casi a basso rischio.
Quindi, diciamo che stai lavorando su a alto rischio Applicazione AI e desideri seguire tutte le regole e ottenere l'approvazione per farlo. Come iniziare?
Per i sistemi di intelligenza artificiale ad alto rischio, sarai responsabile di quanto segue:
- Mantenere e garantire la qualità dei dati: i dati che utilizzi nel tuo modello sono sotto la tua responsabilità, quindi devi curarli attentamente.
- Fornire documentazione e tracciabilità: Dove hai preso i tuoi dati e puoi dimostrarli? Puoi mostrare il tuo lavoro per quanto riguarda eventuali modifiche o modifiche apportate?
- Fornire trasparenza: Se il pubblico utilizza il tuo modello (pensa a un chatbot) o un modello fa parte del tuo prodotto, devi dire agli utenti che è così. Non fingere che la modella sia solo una persona reale sulla hotline del servizio clienti o sul sistema di chat. Questo in realtà si applicherà a tutti i modelli, anche a quelli a basso rischio.
- Utilizzare la supervisione umana: Dire semplicemente “il modello dice…” non basta. Gli esseri umani saranno responsabili di ciò che dicono i risultati del modello e, soprattutto, di come verranno utilizzati i risultati.
- Proteggi la sicurezza informatica e la robustezza: devi fare attenzione a rendere il tuo modello sicuro contro attacchi informatici, violazioni e violazioni involontarie della privacy. Il tuo modello rovinato a causa di bug nel codice o violato tramite vulnerabilità che non hai risolto sarà colpa tua.
- Rispettare le valutazioni d'impatto: Se stai costruendo un modello ad alto rischio, devi fare una valutazione rigorosa di quale potrebbe essere l'impatto (anche se non intendi farlo) sulla salute, la sicurezza e i diritti degli utenti o del pubblico.
- Per gli enti pubblici, registrazione in una banca dati pubblica UE: questo registro viene creato come parte della nuova legge e i requisiti di archiviazione si applicheranno a “autorità, agenzie o organismi pubblici”, quindi principalmente istituzioni governative, non imprese private.
Test
Un'altra cosa di cui la legge prende atto è che se stai lavorando alla creazione di una soluzione di intelligenza artificiale ad alto rischio, devi avere un modo per testarla per assicurarti di seguire le linee guida, quindi ci sono indennità per i test sulle persone normali una volta ottenuto il consenso informato. Quelli di noi che si occupano di scienze sociali lo troveranno piuttosto familiare: è un po' come ottenere l'approvazione del comitato di revisione istituzionale per condurre uno studio.
Efficacia
La legge ha un’attuazione scaglionata:
- Tra 6 mesi entrano in vigore i divieti sul rischio inaccettabile AI
- Tra 12 mesi entrerà in vigore la governance generale dell’IA
- In 24 mesi entreranno in vigore tutte le restanti norme di legge
Nota: la legge non copre le attività puramente personali e non professionali, a meno che non rientrino nei tipi proibiti elencati in precedenza, quindi è probabile che il tuo piccolo progetto parallelo open source non costituisca un rischio.
Quindi, cosa succede se la tua azienda non rispetta la legge e un cittadino dell’UE ne viene colpito? La legge prevede sanzioni esplicite.
Se esegui una delle forme vietate di IA descritte sopra:
- Sanzioni fino a 35 milioni di euro oppure, se hai un'azienda, Il 7% delle tue entrate globali dell'ultimo anno (a seconda di quale sia il più alto)
Altra violazione non inclusa nell'insieme proibito:
- Sanzioni fino a 15 milioni di euro oppure, se sei un'azienda, Il 3% delle tue entrate globali dell'ultimo anno (a seconda di quale sia il più alto)
Mentire alle autorità su una qualsiasi di queste cose:
- Sanzioni fino a 7,5 milioni di euro oppure, se sei un'azienda, 1% delle tue entrate globali dell'ultimo anno (a seconda di quale sia il più alto)
Nota: per le piccole e medie imprese, comprese le startup, la sanzione è pari a qualunque dei numeri sia inferiore e non superiore.
Se stai costruendo modelli e prodotti utilizzando l’intelligenza artificiale secondo la definizione contenuta nella legge, dovresti prima di tutto farlo familiarizzare con la legge e ciò che richiede. Anche se oggi non colpisci i cittadini dell’UE, è probabile che ciò abbia un impatto notevole sul campo e dovresti esserne consapevole.
Quindi, fai attenzione alle potenziali violazioni nella tua attività o organizzazione. Hai un po' di tempo per trovare e risolvere i problemi, ma le forme vietate di IA entrano in vigore per prime. Nelle grandi aziende, probabilmente avrai un team legale, ma non dare per scontato che si prenderanno cura di tutto questo per te. Tu sei l'esperto di machine learning e quindi sei una parte molto importante del modo in cui l'azienda può rilevare ed evitare violazioni. Puoi usare lo strumento Compliance Checker sul sito web dell’EU AI Act per aiutarti.
Esistono molte forme di intelligenza artificiale oggi in uso presso aziende e organizzazioni che non sono consentite da questa nuova legge. Ho menzionato sopra Clearview AI, nonché la polizia predittiva. I test emotivi sono anche una cosa molto reale a cui le persone sono sottoposte durante i processi di colloquio di lavoro (ti invito a cercare su Google “test emozionali per lavori” e vedere l'assalto delle aziende che si offrono di vendere questo servizio), così come i test facciali o altra raccolta biometrica. Sarà estremamente interessante e importante per tutti noi seguire questo processo e vedere come procede l'applicazione, una volta che la legge avrà pieno effetto.
Fonte: towardsdatascience.com