Senza regole, i rischi dell'IA “Crisi della fiducia”

 | Intelligenza-Artificiale

Il mondo è in corsa per distribuire l'IA, ma una voce leader nell'etica tecnologica avverte la priorità della velocità sui rischi di sicurezza una “crisi della fiducia”.

Suvianna Grecu, fondatrice del Ai per il cambiamento fondamentalesostiene che senza una governance immediata e forte, siamo sulla strada per “automatizzare i danni su larga scala”.

Suvianna Grecu, fondatrice della Fondazione AI per Change

Parlando dell'integrazione dell'intelligenza artificiale in settori critici, Grecu ritiene che il pericolo etico più urgente non sia la tecnologia stessa, ma la mancanza di struttura che circonda il suo lancio.

Sistemi potenti stanno prendendo sempre più decisioni che cambiano la vita su tutto, dalle domande di lavoro e dai punteggi di credito alla sanità e alla giustizia penale, spesso senza test sufficienti per pregiudizi o considerazione del loro impatto sociale a lungo termine.

Per molte organizzazioni, l'etica dell'IA rimane un documento di alti principi piuttosto che una realtà operativa quotidiana. Grecu insiste sul fatto che la responsabilità genuina inizia solo quando qualcuno è reso veramente responsabile dei risultati. Il divario tra intenzione e implementazione è dove sta il rischio reale.

La fondazione di Grecu campiona un passaggio da idee astratte all'azione concreta. Ciò comporta l'integrazione di considerazioni etiche direttamente nei flussi di lavoro di sviluppo attraverso strumenti pratici come liste di controllo di progettazione, valutazioni obbligatorie del rischio pre-distribuzione e commissioni di revisione interfunzionale che riuniscono team legali, tecnici e politici.

Secondo GRECU, la chiave è stabilire una chiara proprietà in ogni fase, costruendo processi trasparenti e ripetibili proprio come faresti per qualsiasi altra funzione di core business. Questo approccio pratico cerca di far avanzare l'intelligenza artificiale etica, trasformandolo da un dibattito filosofico in una serie di compiti gestibili e quotidiani.

Collaborando per costruire fiducia in AI e mitigare i rischi

Quando si tratta di applicazione, Grecu è chiaro che la responsabilità non può cadere esclusivamente sul governo o sull'industria. “Non è nemmeno o, deve essere entrambi”, afferma, sostenendo un modello collaborativo.

In questa partnership, i governi devono stabilire i confini legali e gli standard minimi, in particolare laddove sono in gioco i diritti umani fondamentali. La regolamentazione fornisce il pavimento essenziale. Tuttavia, l'industria possiede l'agilità e il talento tecnico per innovare oltre la semplice conformità.

Le aziende sono meglio posizionate per creare strumenti di revisione avanzati, pioniere nuove garanzie e spingere i confini di ciò che la tecnologia responsabile può raggiungere.

Lasciare la governance interamente ai rischi dei regolatori che soffocano l'innovazione stessa di cui abbiamo bisogno, lasciandola al contempo alle società da solo invita abusi. “La collaborazione è l'unico percorso sostenibile in avanti”, afferma Grecu.

Promuovere un futuro basato sul valore

Guardando oltre le sfide immediate, Grecu è preoccupato per i rischi più sottili a lungo termine che stanno ricevendo un'attenzione insufficiente, vale a dire la manipolazione emotiva e la urgente necessità di tecnologia guidata dal valore.

Man mano che i sistemi di intelligenza artificiale diventano più abili nel persuadere e influenzare l'emozione umana, avverte che non siamo preparati per le implicazioni che ciò ha per l'autonomia personale.

Un principio fondamentale del suo lavoro è l'idea che la tecnologia non sia neutrale. “L'IA non sarà guidata da valori, a meno che non li costruiamo intenzionalmente”, avverte. È un malinteso comune che l'IA riflette semplicemente il mondo così com'è. In realtà, riflette i dati che ci nutriamo, gli obiettivi che ci assegniamo e i risultati che ricompensiamo.

Senza un intervento deliberato, l'IA ottimizzerà invariabilmente metriche come efficienza, scala e profitto, non per ideali astratti come giustizia, dignità o democrazia e ciò avrà un impatto naturalmente sulla fiducia della società. Questo è il motivo per cui è necessario uno sforzo consapevole e proattivo per decidere quali valori vogliamo promuovere la nostra tecnologia.

Per l'Europa, questo rappresenta un'opportunità critica. “Se vogliamo che l'IA serva umani (non solo mercati), dobbiamo proteggere e incorporare valori europei come diritti umani, trasparenza, sostenibilità, inclusione ed equità ad ogni livello: politica, progettazione e distribuzione”, spiega Grecu.

Non si tratta di fermare i progressi. Come si conclude, si tratta di prendere il controllo della narrazione e attivamente “modellarla prima che ci modella”.

Attraverso il lavoro della sua fondazione – compresi seminari pubblici e durante il prossimo AI e Big Data Expo EuropaDove Grecu è presidente del secondo giorno dell'evento: sta costruendo una coalizione per guidare l'evoluzione dell'IA e aumentare la fiducia mantenendo l'umanità al suo centro.

(Foto di Cash Macanaya)

Vedi anche: AI Obsession ci sta costando le nostre capacità umane

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *