Lo hanno rivelato i ricercatori dell’Università di Chicago Belladonnauno strumento progettato per sconvolgere i modelli di intelligenza artificiale che tentano di apprendere dalle immagini artistiche.
Lo strumento, ancora in fase di sviluppo, consente agli artisti di proteggere il proprio lavoro alterando sottilmente i pixel nelle immagini, rendendoli impercettibilmente diversi per l’occhio umano ma confusi per i modelli di intelligenza artificiale.
Molti artisti e creatori hanno espresso preoccupazione per l’uso del loro lavoro nella formazione di prodotti commerciali di intelligenza artificiale senza il loro consenso.
Per funzionare in modo efficace, i modelli di intelligenza artificiale si basano su grandi quantità di dati multimediali – inclusi materiale scritto e immagini, spesso recuperati dal web. Nightshade offre una potenziale soluzione sabotando questi dati.
Quando integrato nell’opera d’arte digitale, Nightshade inganna i modelli di intelligenza artificiale, inducendoli a identificare erroneamente oggetti e scene.
Ad esempio, Nightshade ha trasformato le immagini dei cani in dati che ai modelli di intelligenza artificiale apparivano come gatti. Dopo l’esposizione a soli 100 campioni di veleno, l’IA ha generato in modo affidabile un gatto quando gli è stato chiesto un cane, dimostrando l’efficacia dello strumento.
Questa tecnica non solo confonde i modelli di intelligenza artificiale, ma mette anche in discussione il modo fondamentale in cui opera l’intelligenza artificiale generativa. Sfruttando il raggruppamento di parole e idee simili nei modelli di intelligenza artificiale, Nightshade può manipolare le risposte a suggerimenti specifici e minare ulteriormente l’accuratezza dei contenuti generati dall’intelligenza artificiale.
Sviluppato dal professore di informatica Ben Zhao e dal suo team, Nightshade è un’estensione del loro prodotto precedente, Smaltoche nasconde le opere d’arte digitali e distorce i pixel per confondere i modelli di intelligenza artificiale per quanto riguarda lo stile artistico.
Sebbene sia riconosciuto il potenziale uso improprio di Nightshade, l’obiettivo principale dei ricercatori è spostare l’equilibrio di potere dalle società di intelligenza artificiale agli artisti e scoraggiare le violazioni della proprietà intellettuale.
L’introduzione di Nightshade rappresenta una grande sfida per gli sviluppatori di intelligenza artificiale. Rilevare e rimuovere immagini con pixel avvelenati è un compito complesso, data la natura impercettibile delle alterazioni.
Se integrate nei set di dati di addestramento sull’intelligenza artificiale esistenti, queste immagini richiedono la rimozione e la potenziale riqualificazione dei modelli di intelligenza artificiale, ponendo un ostacolo sostanziale per le aziende che fanno affidamento su dati rubati o non autorizzati.
Mentre i ricercatori attendono la revisione tra pari del loro lavoro, Nightshade è un faro di speranza per gli artisti che cercano di proteggere i loro sforzi creativi.
(Fotografato da Josie Weiss SU Unsplash)
Guarda anche: La UMG avvia una causa storica contro lo sviluppatore di intelligenza artificiale Anthropic
Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolgerà ad Amsterdam, in California, e a Londra. L’evento completo è co-localizzato con Settimana della trasformazione digitale.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com