OpenAI si sta unendo al Coalizione per la provenienza e l'autenticità dei contenuti (C2PA) e integrerà i metadati dello standard aperto nei suoi modelli di intelligenza artificiale generativa per aumentare la trasparenza sui contenuti generati.

Lo standard C2PA consente di certificare i contenuti digitali con metadati che ne dimostrano l'origine, siano essi creati interamente dall'intelligenza artificiale, modificati utilizzando strumenti di intelligenza artificiale o acquisiti tradizionalmente. OpenAI ha già iniziato ad aggiungere metadati C2PA alle immagini dal suo ultimo output del modello DALL-E 3 in ChatGPT e nell'API OpenAI. I metadati verranno integrati nel prossimo modello di generazione video di OpenAI, Sora, quando verrà lanciato su più ampio.

“Le persone possono comunque creare contenuti ingannevoli senza queste informazioni (o rimuoverle), ma non possono facilmente falsificare o alterare queste informazioni, rendendole una risorsa importante per creare fiducia”, ha spiegato OpenAI.

La mossa arriva in un momento in cui crescono le preoccupazioni sulla possibilità che i contenuti generati dall’intelligenza artificiale possano fuorviare gli elettori in vista delle importanti elezioni negli Stati Uniti, nel Regno Unito e in altri paesi quest’anno. L’autenticazione dei media creati dall’intelligenza artificiale potrebbe aiutare a combattere i deepfake e altri contenuti manipolati finalizzati a campagne di disinformazione.

Sebbene le misure tecniche siano utili, OpenAI riconosce che consentire l’autenticità dei contenuti nella pratica richiede un’azione collettiva da parte di piattaforme, creatori e gestori di contenuti per conservare i metadati per i consumatori finali.

Oltre all'integrazione C2PA, OpenAI sta sviluppando nuovi metodi di provenienza come la filigrana a prova di manomissione per i classificatori di rilevamento di audio e immagini per identificare le immagini generate dall'intelligenza artificiale.

OpenAI ha aperto applicazioni per l'accesso al suo classificatore di rilevamento immagini DALL-E 3 tramite il suo Programma di accesso per ricercatori. Lo strumento prevede la probabilità che un'immagine abbia avuto origine da uno dei modelli di OpenAI.

“Il nostro obiettivo è consentire una ricerca indipendente che valuti l'efficacia del classificatore, analizzi la sua applicazione nel mondo reale, emerga considerazioni rilevanti per tale utilizzo ed esplori le caratteristiche dei contenuti generati dall'intelligenza artificiale”, ha affermato la società.

I test interni mostrano un'elevata precisione nel distinguere le immagini non AI dalle immagini DALL-E 3, con circa il 98% delle immagini DALL-E identificate correttamente e meno dello 0,5% delle immagini non AI contrassegnate in modo errato. Tuttavia, il classificatore fatica maggiormente a distinguere tra le immagini prodotte da DALL-E e altri modelli di intelligenza artificiale generativa.

OpenAI ha anche incorporato la filigrana nel suo modello vocale personalizzato Voice Engine, attualmente in anteprima limitata.

L’azienda ritiene che una maggiore adozione di standard di provenienza porterà a metadati che accompagneranno i contenuti attraverso il loro intero ciclo di vita per colmare “una lacuna cruciale nelle pratiche di autenticità dei contenuti digitali”.

OpenAI si unisce a Microsoft lancio un fondo per la resilienza sociale da 2 milioni di dollari per sostenere l’educazione e la comprensione dell’IA, anche attraverso AARP, International IDEA e la Partnership on AI.

“Mentre soluzioni tecniche come quelle sopra ci forniscono strumenti attivi per le nostre difese, consentire effettivamente l’autenticità dei contenuti nella pratica richiederà un’azione collettiva”, afferma OpenAI.

“I nostri sforzi sulla provenienza sono solo una parte di un impegno più ampio del settore: anche molti dei nostri laboratori di ricerca tra pari e aziende di intelligenza artificiale generativa stanno portando avanti la ricerca in questo settore. Elogiamo questi sforzi: il settore deve collaborare e condividere approfondimenti per migliorare la nostra comprensione e continuare a promuovere la trasparenza online”.

(Fotografato da Marc Sendra Martorell)

Guarda anche: Chuck Ros, SoftServe: Fornire soluzioni di intelligenza artificiale trasformative in modo responsabile

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui Conferenza sull'automazione intelligente, BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: ai, intelligenza artificiale, c2pa, etica, geni, ai generativi, openai, Società

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *