Nightshade “avvelena” i modelli di intelligenza artificiale per combattere il furto di copyright

 | Intelligenza-Artificiale

Lo hanno rivelato i ricercatori dell’Università di Chicago Belladonnauno strumento progettato per sconvolgere i modelli di intelligenza artificiale che tentano di apprendere dalle immagini artistiche.

Lo strumento, ancora in fase di sviluppo, consente agli artisti di proteggere il proprio lavoro alterando sottilmente i pixel nelle immagini, rendendoli impercettibilmente diversi per l’occhio umano ma confusi per i modelli di intelligenza artificiale.

Molti artisti e creatori hanno espresso preoccupazione per l’uso del loro lavoro nella formazione di prodotti commerciali di intelligenza artificiale senza il loro consenso.

Per funzionare in modo efficace, i modelli di intelligenza artificiale si basano su grandi quantità di dati multimediali – inclusi materiale scritto e immagini, spesso recuperati dal web. Nightshade offre una potenziale soluzione sabotando questi dati.

Quando integrato nell’opera d’arte digitale, Nightshade inganna i modelli di intelligenza artificiale, inducendoli a identificare erroneamente oggetti e scene.

Ad esempio, Nightshade ha trasformato le immagini dei cani in dati che ai modelli di intelligenza artificiale apparivano come gatti. Dopo l’esposizione a soli 100 campioni di veleno, l’IA ha generato in modo affidabile un gatto quando gli è stato chiesto un cane, dimostrando l’efficacia dello strumento.

Questa tecnica non solo confonde i modelli di intelligenza artificiale, ma mette anche in discussione il modo fondamentale in cui opera l’intelligenza artificiale generativa. Sfruttando il raggruppamento di parole e idee simili nei modelli di intelligenza artificiale, Nightshade può manipolare le risposte a suggerimenti specifici e minare ulteriormente l’accuratezza dei contenuti generati dall’intelligenza artificiale.

Sviluppato dal professore di informatica Ben Zhao e dal suo team, Nightshade è un’estensione del loro prodotto precedente, Smaltoche nasconde le opere d’arte digitali e distorce i pixel per confondere i modelli di intelligenza artificiale per quanto riguarda lo stile artistico.

Sebbene sia riconosciuto il potenziale uso improprio di Nightshade, l’obiettivo principale dei ricercatori è spostare l’equilibrio di potere dalle società di intelligenza artificiale agli artisti e scoraggiare le violazioni della proprietà intellettuale.

L’introduzione di Nightshade rappresenta una grande sfida per gli sviluppatori di intelligenza artificiale. Rilevare e rimuovere immagini con pixel avvelenati è un compito complesso, data la natura impercettibile delle alterazioni.

Se integrate nei set di dati di addestramento sull’intelligenza artificiale esistenti, queste immagini richiedono la rimozione e la potenziale riqualificazione dei modelli di intelligenza artificiale, ponendo un ostacolo sostanziale per le aziende che fanno affidamento su dati rubati o non autorizzati.

Mentre i ricercatori attendono la revisione tra pari del loro lavoro, Nightshade è un faro di speranza per gli artisti che cercano di proteggere i loro sforzi creativi.

(Fotografato da Josie Weiss SU Unsplash)

Guarda anche: La UMG avvia una causa storica contro lo sviluppatore di intelligenza artificiale Anthropic

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolgerà ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

Tag: ai, intelligenza artificiale, diritto d’autore, sviluppo, etica, proprietà intellettuale, formazione del modello, belladonna, Società, formazione, università di Chicago

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *