In un avviso emesso dall'India Ministero dell'Elettronica e dell'Informazione (MeitY) venerdì scorso è stato dichiarato che qualsiasi tecnologia di intelligenza artificiale ancora in fase di sviluppo deve acquisire l’autorizzazione esplicita del governo prima di essere rilasciata al pubblico.

Inoltre, gli sviluppatori potranno implementare queste tecnologie solo dopo aver etichettato la potenziale fallibilità o inaffidabilità dell’output generato.

Inoltre, il documento delinea i piani per l’implementazione di un meccanismo di “popup di consenso” per informare gli utenti su potenziali difetti o errori prodotti dall’intelligenza artificiale. Obbliga inoltre l’etichettatura dei deepfake con metadati univoci permanenti o altri identificatori per prevenirne l’uso improprio.

Oltre a queste misure, la consulenza ordina a tutti gli intermediari o piattaforme di garantire che qualsiasi prodotto modello di intelligenza artificiale – compresi i modelli linguistici di grandi dimensioni (LLM) – non consenta pregiudizi, discriminazioni o minacci l’integrità del processo elettorale.

Alcuni esponenti del settore hanno criticato i piani dell'India ritenendoli eccessivi:

Gli sviluppatori sono tenuti a conformarsi all'avviso entro 15 giorni dalla sua emissione. È stato suggerito che, dopo la conformità e la richiesta di autorizzazione per il rilascio di un prodotto, agli sviluppatori potrebbe essere richiesto di eseguire una demo per i funzionari governativi o di sottoporsi a stress test.

Sebbene al momento l’avviso non sia giuridicamente vincolante, esprime le aspettative del governo e suggerisce la direzione futura della regolamentazione nel settore dell’intelligenza artificiale.

“Lo facciamo oggi a titolo consultivo chiedendo a voi (piattaforme di intelligenza artificiale) di rispettarlo”, ha affermato il ministro IT Rajeev Chandrasekhar. Ha aggiunto che questa posizione sarà eventualmente codificata nella legislazione.

“L'intelligenza artificiale generativa o le piattaforme di intelligenza artificiale disponibili su Internet dovranno assumersi la piena responsabilità di ciò che fa la piattaforma e non possono sottrarsi alla responsabilità dicendo che la loro piattaforma è in fase di test”, ha continuato Chandrasekhar, come riportato dai media locali.

(Fotografato da Naveed Ahmed SU Unsplash)

Guarda anche: Elon Musk fa causa a OpenAI per presunta violazione dell'accordo senza scopo di lucro

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, intelligenza artificiale, sviluppo, governo, India, grandi modelli linguistici, legge, legale, Legislazione, llm, Politica

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *