
L'ultimo modello AI di Deepseek, R1 0528, ha sollevato le sopracciglia per un'ulteriore regressione sulla libertà di parola e ciò che gli utenti possono discutere. “Un grande passo indietro per la libertà di parola”, è come un importante ricercatore di intelligenza artificiale lo ha riassunto
Ricercatore di intelligenza artificiale e commentatore online popolare 'xlr8harder' Metti il modello attraverso i suoi passi, condividendo i risultati che suggeriscono che DeepSeek sta aumentando le sue restrizioni di contenuto.
“DeepSeek R1 0528 è sostanzialmente meno permissivo su argomenti di libertà di libertà libera rispetto alle precedenti versioni di DeepSeek”, ha osservato il ricercatore. Ciò che rimane poco chiaro è se ciò rappresenti un cambiamento deliberato nella filosofia o semplicemente un diverso approccio tecnico alla sicurezza dell'IA.
Ciò che è particolarmente affascinante del nuovo modello è quanto in modo incoerente applica i suoi confini morali.
In un test di libertà di parola, quando viene chiesto di presentare argomenti a sostegno dei campi di internamento dissidenti, il modello AI ha rifiutato in modo piatto. Ma, nel suo rifiuto, ha menzionato specificamente i campi di internamento dello Xinjiang in Cina come esempi di violazioni dei diritti umani.
Tuttavia, quando si è interrogato direttamente su questi stessi campi dello Xinjiang, il modello ha improvvisamente fornito risposte fortemente censurate. Sembra che questa AI sia a conoscenza di alcuni argomenti controversi, ma è stato chiesto di giocare stupido quando gli viene chiesto direttamente.
“È interessante anche se non del tutto sorprendente che sia in grado di elaborare i campi come esempio di violazioni dei diritti umani, ma nega quando viene chiesto direttamente”, ha osservato il ricercatore.
Critica della Cina? Il computer dice di no
Questo modello diventa ancora più pronunciato quando si esamina la gestione da parte del modello di domande sul governo cinese.
Utilizzando set di domande stabilite progettate per valutare la libertà di parola nelle risposte di intelligenza artificiale a argomenti politicamente sensibili, il ricercatore ha scoperto che R1 0528 è “il modello Deepseek più censurato ancora per le critiche al governo cinese”.
Laddove i precedenti modelli DeepSeek avrebbero potuto offrire risposte misurate a domande sulla politica cinese o sulle questioni relative ai diritti umani, questa nuova iterazione si rifiuta spesso di impegnarsi a tutti – uno sviluppo preoccupante per coloro che apprezzano i sistemi di intelligenza artificiale che possono discutere apertamente degli affari globali.
C'è, tuttavia, un rivestimento d'argento su questa nuvola. A differenza dei sistemi chiusi di aziende più grandi, i modelli di Deepseek rimangono open-source con licenze permissive.
“Il modello è open source con una licenza permissiva, quindi la comunità può (e farà) affrontare questo”, ha osservato il ricercatore. Questa accessibilità significa che la porta rimane aperta agli sviluppatori per creare versioni che bilanciano una migliore sicurezza con l'apertura.
Quello che l'ultimo modello di Deepseek mostra sulla libertà di parola nell'era AI
La situazione rivela qualcosa di abbastanza sinistro su come sono costruiti questi sistemi: possono sapere sugli eventi controversi mentre vengono programmati per fingere di non farlo, a seconda di come si esprimono la tua domanda.
Mentre l'IA continua la sua marcia verso la nostra vita quotidiana, trovare il giusto equilibrio tra ragionevoli garanzie e discorso aperto diventa sempre più cruciale. Troppo restrittivo e questi sistemi diventano inutili per discutere di argomenti importanti ma di divisione. Troppo permissivo e rischiano di consentire contenuti dannosi.
DeepSeek non ha affrontato pubblicamente il ragionamento alla base di queste maggiori restrizioni e regressione nella libertà di parola, ma la comunità AI sta già lavorando su modifiche. Per ora, gettalo come un altro capitolo del tiro alla fune in corso tra sicurezza e apertura nell'intelligenza artificiale.
(Foto di John Cameron)
Vedi anche: Etica nell'automazione: affrontare la distorsione e la conformità in AI

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.
Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.
Fonte: www.artificialintelligence-news.com