L’Unione Europea ha fretta. In questo momento, i legislatori stanno cercando di approvare più velocemente del solito un regolamento abbastanza poco appariscente per il pubblico. Ciò che era iniziato come una questione marginale – la regolamentazione dell’intelligenza artificiale – ha assunto una nuova dimensione con lo sviluppo della tecnologia. L’Europa mira a garantire che l’intelligenza artificiale funzioni a beneficio delle persone, non discrimini i diversi gruppi di persone e non voglia controllarli in modo assoluto. Ma non è così semplice. Un eccessivo vincolo delle tecnologie può ostacolarne lo sviluppo in Europa. E così distruggere progetti che altrimenti potrebbero addirittura salvare vite umane.
Molti di questi progetti sono ancora in fase di sperimentazione, ma non è esagerato affermare che stanno cambiando interi campi. Solo nella Repubblica Ceca l’intelligenza artificiale aiuta già in varie fasi dei test fertilitàcon la civiltà malattie, neurologico problemi io Alzheimer. Egli guarda il cuore di centinaia di personeassiste pasticceri UN cercando nuovi farmaci antitumorali. E Progetto, con cui segue l’epidemia di cancro al colon, ha attirato l’attenzione anche dell’ospedale di ricerca più importante del mondo, la Mayo Clinic. La tecnologia medica è uno dei settori più importanti in cui viene attualmente applicata l’intelligenza artificiale. Ma la nuova misura varrebbe anche per loro.
La cosiddetta legge sull’intelligenza artificiale, ovvero la normativa sull’intelligenza artificiale, dovrebbe essere la prima normativa di questo tipo al mondo. Propone che i sistemi di intelligenza artificiale, che possono essere utilizzati in varie applicazioni, siano analizzati e classificati in base al rischio che rappresentano per gli utenti. Diversi livelli di rischio significherebbero quindi meno o più regolamentazione con possibili multe per le aziende fino a 30 milioni di euro (convertiti in 731 milioni di corone) o il 6% del reddito globale della società in questione. Verrebbero imposte sanzioni, ad esempio, se la società presentasse documentazione falsa o fuorviante alle autorità di regolamentazione.
La legge è già stata approvata dal Parlamento europeo, ma la forma definitiva della legge è ancora in fase di negoziazione con i paesi dell’UE. L’obiettivo è raggiungere un accordo questa settimana. Se ciò non fosse possibile, la discussione dovrà essere rinviata fino all’elezione del nuovo Parlamento europeo e alla nuova composizione della Commissione europea, cioè all’incirca fino alla fine del prossimo anno. Se invece tutto andrà liscio, la legge potrebbe diventare un trampolino di lancio e un modello per altri Paesi che cercano un’alternativa a quello che alcuni considerano un approccio troppo frivolo da parte di Stati Uniti e Cina.
“Sono d’accordo che l’abuso dell’intelligenza artificiale debba essere prevenuto nell’Unione europea, soprattutto quando si tratta di sorveglianza di massa delle persone, manipolazione e restrizione dei cittadini, come sta accadendo ad esempio in Cina,” afferma Pavel Kordík, specialista in intelligenza artificiale della CTU e vicepreside per la cooperazione con l’industria presso la Facoltà di tecnologie dell’informazione. “Ma temo che la nuova legislazione nelle mani dei funzionari e l’inadeguata attuazione nazionale delle raccomandazioni causeranno solo ulteriore ritardo e bloccheranno l’innovazione”, forniture.
“Per decenni siamo stati coinvolti nelle tecnologie per l’elaborazione e la sintesi vocale, l’identificazione e l’adattamento dello stile del parlante, la generazione di contenuti, la personalizzazione e la raccomandazione e, più recentemente, la personalizzazione dei modelli in biomedicina. Molte delle tecniche elencate rientrano nella categoria ad alto rischio”, elenca Jan Kleindienst, uno dei fondatori della startup The Mama AI e uno specialista di intelligenza artificiale che ha contribuito a creare questi sistemi presso IBM. È anche cofondatore della piattaforma per l’intelligenza artificiale nell’Unione dell’industria e dei trasporti.
Il dipinto Ragazza con perla è originariamente solo il ritratto del volto di una giovane donna. Ma l’intelligenza artificiale può “finirla”.
“Indubbiamente, questi ostacoli allo sviluppo dell’IA proteggeranno il consumatore europeo e ridurranno la probabilità che l’IA possa causare danni. D’altro canto, va notato che la regolamentazione limita quasi sempre l’innovazione e la velocità. Vedremo sicuramente tassi di progresso tecnologico diversi nell’UE a seguito di queste misure rispetto agli Stati Uniti o all’Asia”, preoccupa Stephen Burke, cofondatore della startup ceca Kardi AI.
Tuttavia, i cambiamenti potrebbero influenzare non solo le giovani imprese tecnologiche, ma anche gli sviluppi nell’ambiente universitario. “Anche se si parla dei cosiddetti sandbox normativi, dove potranno svilupparsi applicazioni rischiose. Temo però che il concetto sia troppo macchinoso e che le approvazioni necessarie saranno così difficili che nessuno se ne prenderà nemmeno la briga. Nello specifico. , attualmente sto lavorando ad un progetto di educazione personalizzata all’interno dell’iniziativa no-profit AI for children, dove sarà necessario ‘profilare’ i bambini in modo che i contenuti educativi possano essere adattati a loro. “Una simile richiesta sarà autorizzata e controllata. Quanto tempo ci vorrà, quanto costerà e chi la pagherà?” chiede Kordík del CTU.
Intelligenza artificiale incomprensibile
La necessità di stabilire alcune regole per l’intelligenza artificiale non è un’invenzione dell’Unione Europea. Le stesse domande vengono affrontate negli Stati Uniti. Ma mentre nel vecchio continente la regolamentazione ha richiesto anni di sviluppo, la tecnologia stessa ha un ritmo un po’ diverso. Nell’aprile 2021, quando la Commissione europea ha presentato il primo quadro che viene affrontato oggi, era già preceduto da tre anni di dibattito e feedback da parte di migliaia di esperti di intelligenza artificiale. Il risultato avrebbe dovuto essere “innovativo” regolamento cioè “pronti per il futuro” Come ha dichiarato La commissaria europea Margrethe Vestager, responsabile della concorrenza leale.
Ma il futuro è cambiato già l’anno successivo, quando è stato aperto al pubblico ChatGPT, che non rientrava negli schemi preparati. “Continueremo a restare indietro rispetto alla velocità della tecnologia” non si maschera secondo diario Il New York Times Svenja Hahnová, eurodeputata che ha partecipato alla preparazione della legge sull’intelligenza artificiale. Negli Stati Uniti in ottobre è stato emanato un decreto sugli effetti dell’intelligenza artificiale e i legislatori stanno ora discutendo se e quali misure adottare. Secondo il giornale, però, alcuni hanno subito ammesso di capire a malapena come funzionano queste tecnologie.
In realtà non è nemmeno possibile comprenderli perfettamente. La vera intelligenza artificiale – anche se i sistemi più semplici vengono spesso indicati con questo termine di moda – è essenzialmente una scatola nera. Le assegni un compito o una domanda o, ad esempio, le invii dei dati e lei emette una risposta o un risultato. Ma cosa succede nel mezzo e su cosa si basa la decisione non è sempre del tutto chiaro. Pertanto, con lo stesso input, la sua risposta potrebbe essere ogni volta diversa, cosa che può essere testata sul popolare ChatGPT.
Quindi, se non sappiamo quanto i programmi complicati prendano le loro decisioni, come possiamo fidarci di loro? Se l’intelligenza artificiale ha ogni volta un risultato diverso, come possiamo fidarci di lei? Che dovrebbe essere prevedibile è anche un requisito della proposta di regolamento UE. E ad esso è dedicato anche il citato servizio sanitario.
“Kardi AI si concentra sull’uso dell’intelligenza artificiale nella tecnologia medica o sanitaria, e questo comporta impatti specifici. Cominciamo col dire che dobbiamo essere in grado di dimostrare risultati ripetibili e coerenti: quando a un’intelligenza artificiale viene fornita la stessa serie di dati dei pazienti, dovrebbe produrre sempre gli stessi risultati. E dovrebbe essere possibile risalire al motivo per cui è così.” descrive Burke, che è dietro Kardi AI.
E poi si imbatte nei modelli GPT dell’azienda OpenAI. “Uno degli impatti principali è che ciò potrebbe precludere l’uso di modelli linguistici di grandi dimensioni (LLM) in medicina, perché non solo sono inclini alle allucinazioni, cioè presentano risultati falsi come fatti, ma hanno anche set di dati di addestramento così massicci e disparati che sarebbe impossibile capire perché l’intelligenza artificiale abbia prodotto un determinato risultato”, forniture.
Come vede il regolamento l’intelligenza artificiale problematica?
Rischio limitato
- Tali sistemi dovrebbero soddisfare requisiti minimi di trasparenza, l’utente dovrebbe essere informato che sta interagendo con l’intelligenza artificiale e dovrebbe essere in grado di decidere se vuole continuare a utilizzare il sistema. Ciò include sistemi che generano o manipolano contenuti di immagini, audio o video.
Alto rischio
- Ciò include i sistemi che hanno un impatto negativo sulla sicurezza o sui diritti fondamentali. Sono quelli utilizzati nei giocattoli, nell’industria aeronautica e spaziale, nelle automobili o forse nei dispositivi medici. Alcuni settori dovranno essere registrati nella banca dati dell’UE, ad esempio l’identificazione biometrica e la categorizzazione delle persone fisiche o i settori dell’istruzione, delle forze dell’ordine o dell’occupazione. Tutti i sistemi di intelligenza artificiale ad alto rischio saranno valutati prima della commercializzazione e durante l’intero ciclo di vita.
Rischio inaccettabile
- I sistemi di intelligenza artificiale con rischi inaccettabili sono quelli considerati una minaccia per gli esseri umani e saranno vietati. Questi includono, ad esempio, la manipolazione cognitiva del comportamento di persone o gruppi specifici (come i giocattoli ad attivazione vocale), l’assegnazione di credito sociale (classificazione basata sul comportamento delle persone, sullo stato socioeconomico e altre caratteristiche) o la gestione in tempo reale e sistemi di identificazione biometrica remota come il riconoscimento facciale. In questa categoria possono essere concesse deroghe, ad esempio per i componenti di protezione.
Come non darsi la zappa sui piedi
I rappresentanti delle imprese temono ora che le nuove regole non ostacolino lo sviluppo delle imprese. “Per dirla in breve, capisco perfettamente la necessità di una certa regolamentazione dell’intelligenza artificiale, ma non dovremmo ‘darci la zappa sui piedi’ nell’Unione europea e poi sorprenderci di non riuscire a tenere il passo a livello globale sia nell’innovazione che nell’economia”. ,” pensa, ad esempio, Martin Dostál, partner del fondo di investimento Look AI Ventures.
Si dice che negli ultimi cinque anni abbia valutato più di quattromila startup in questo campo da tutto il mondo, di cui diverse centinaia in dettaglio. “E posso dire di aver visto diverse dozzine di startup la cui funzionalità sarebbe problematica ai sensi della legge UE sull’intelligenza artificiale. Un aspetto importante è la categorizzazione delle soluzioni AI dal punto di vista del rischio, e soprattutto per le applicazioni che rientrano nel ‘ “categoria ad alto rischio”, sarà necessaria una valutazione approfondita per vedere se soddisfano i requisiti normativi. Nell’ambito delle startup che valutiamo, stimo che potrebbero essere fino al trenta per cento di quelle che saranno incluse nella categoria “ad alto rischio” “categoria” significa
Invece della regolamentazione, Kordík del CTU apprezzerebbe, ad esempio, la forma di un codice. “L’intelligenza artificiale è abbastanza non regolamentata e il mondo è già così globalizzato che se qualcuno crea un’applicazione utile, gli utenti troveranno la strada per arrivarci. Dovremmo sforzarci di rendere più semplice la creazione di startup IA nell’UE e di vendere prodotti utili in tutto il mondo. Questo ci farà sentire bene e renderà più facile determinare come appare il mondo digitale che ci circonda”. pensa l’esperto universitario.
In generale, secondo gli imprenditori e gli esperti intervistati, il sindacato cerca di garantire i diritti dei cittadini e di prevenire il bullismo e il personale, sia da parte degli Stati che delle aziende tecnologiche. “Naturalmente sottoscriviamo tali valori a lungo termine e senza esitazione. D’altra parte, le dittature e le organizzazioni criminali non rispetteranno queste norme.” aggiunge Martin Čmejrek, specialista di intelligenza artificiale della startup The Mama AI.
Fonte: cc.cz