I modelli di intelligenza artificiale cinese alimentano 175.000 sistemi non protetti mentre i laboratori occidentali si ritirano

 | Intelligenza-Artificiale

Perché i laboratori occidentali di intelligenza artificiale non lo faranno, o non potranno più farlo. Mentre OpenAI, Anthropic e Google affrontano una pressione crescente per limitare i loro modelli più potenti, gli sviluppatori cinesi hanno riempito il vuoto dell’open source con un’intelligenza artificiale creata esplicitamente per ciò di cui gli operatori hanno bisogno: modelli potenti che funzionano su hardware di base.

Una nuova sicurezza studio rivela quanto accuratamente l’intelligenza artificiale cinese abbia catturato questo spazio. Una ricerca pubblicata da SentinelOne e Censys, che ha mappato 175.000 host IA esposti in 130 paesi per 293 giorni, mostra che Qwen2 di Alibaba si colloca costantemente secondo solo a Llama di Meta nella distribuzione globale. Più significativamente, il modello cinese appare sul 52% dei sistemi che eseguono più modelli di intelligenza artificiale, suggerendo che sia diventato l’alternativa de facto a Llama.

“Nei prossimi 12-18 mesi, ci aspettiamo che le famiglie modello di origine cinese svolgano un ruolo sempre più centrale nell’ecosistema LLM open source, in particolare poiché i laboratori di frontiera occidentali rallentano o limitano i rilasci a peso aperto”, ha dichiarato a TechForge Media Gabriel Bernadett-Shapiro, illustre ricercatore di intelligenza artificiale presso SentinelOne. Notizie sull’AI.

La scoperta arriva mentre OpenAI, Anthropic e Google devono affrontare il controllo normativo, i costi di revisione della sicurezza e gli incentivi commerciali che li spingono verso rilasci basati su API piuttosto che pubblicare liberamente i pesi dei modelli. Il contrasto con gli sviluppatori cinesi non potrebbe essere più netto.

I laboratori cinesi hanno dimostrato ciò che Bernadett-Shapiro definisce “la volontà di pubblicare pesi di grandi dimensioni e di alta qualità che siano esplicitamente ottimizzati per l’implementazione locale, la quantizzazione e l’hardware di base”.

“In pratica, questo li rende più facili da adottare, più facili da gestire e più facili da integrare in ambienti periferici e residenziali”, ha aggiunto.

In parole povere: se sei un ricercatore o uno sviluppatore che desidera eseguire una potente intelligenza artificiale sul tuo computer senza un budget enorme, i modelli cinesi come Qwen2 sono spesso la tua migliore, o unica, opzione.

Pragmatica, non ideologia

Qwen2 di Alibaba è costantemente secondo solo a Llama di Meta tra 175.000 host esposti a livello globale. Fonte: SentinelOne/Censys

La ricerca mostra che questa dominanza non è casuale. Qwen2 mantiene ciò che Bernadett-Shapiro chiama “volatilità di grado zero”: occupa la seconda posizione in ogni metodo di misurazione esaminato dai ricercatori: osservazioni totali, host unici e giorni-ospite. Non c’è alcuna fluttuazione, nessuna variazione regionale, solo un’adozione globale coerente.

Il modello di co-implementazione è altrettanto rivelatore. Quando gli operatori eseguono più modelli di intelligenza artificiale sullo stesso sistema – una pratica comune per il confronto o la segmentazione del carico di lavoro – l’abbinamento di Llama e Qwen2 appare su 40.694 host, che rappresentano il 52% di tutte le implementazioni multifamiliari.

La concentrazione geografica rafforza il quadro. In Cina, Pechino da sola rappresenta il 30% degli ospiti esposti, con Shanghai e Guangdong che insieme aggiungono un altro 21%. Negli Stati Uniti, la Virginia, riflettendo la densità dell’infrastruttura AWS, rappresenta il 18% degli host.

La Cina e gli Stati Uniti dominano la distribuzione degli ospiti di Ollama, con Pechino che rappresenta il 30% degli schieramenti cinesi. Fonte: SentinelOne/Censys

“Se la velocità di rilascio, l’apertura e la portabilità dell’hardware continuano a divergere tra le regioni, è probabile che i lignaggi del modello cinese diventino l’impostazione predefinita per le implementazioni aperte, non a causa dell’ideologia, ma a causa della disponibilità e della pragmatica”, ha spiegato Bernadett-Shapiro.

Il problema della governance

Questo cambiamento crea ciò che Bernadett-Shapiro definisce una “inversione della governance”, un’inversione fondamentale del modo in cui vengono distribuiti il ​​rischio e la responsabilità dell’IA.

Nei servizi ospitati su piattaforma come ChatGPT, un’azienda controlla tutto: l’infrastruttura, monitora l’utilizzo, implementa controlli di sicurezza e può bloccare gli abusi. Con i modelli a peso aperto, il controllo evapora. La responsabilità si diffonde attraverso migliaia di reti in 130 paesi, mentre la dipendenza si concentra a monte in una manciata di fornitori modello, sempre più cinesi.

I 175.000 host esposti operano interamente al di fuori dei sistemi di controllo che governano le piattaforme di intelligenza artificiale commerciali. Non esiste alcuna autenticazione centralizzata, nessuna limitazione di velocità, nessun rilevamento di abusi e, soprattutto, nessun kill switch se viene rilevato un uso improprio.

“Una volta rilasciato un modello a peso aperto, è banale rimuovere la formazione sulla sicurezza”, ha osservato Bernadett-Shapiro. “I laboratori di frontiera devono trattare i rilasci a peso aperto come artefatti infrastrutturali di lunga durata”.

Una dorsale persistente di 23.000 host che mostra un tempo di attività medio dell’87% guida la maggior parte dell’attività. Questi non sono esperimenti hobbistici: sono sistemi operativi che forniscono utilità continua, spesso eseguendo più modelli contemporaneamente.

Forse la cosa più preoccupante è che tra il 16% e il 19% delle infrastrutture non può essere attribuito a nessun proprietario identificabile.

Sicurezza senza guardrail

Quasi la metà (48%) degli host esposti pubblicizza “capacità di chiamata di strumenti”, il che significa che non si limitano a generare testo. Possono eseguire codice, accedere alle API e interagire con sistemi esterni in modo autonomo.

“Un modello di solo testo può generare contenuti dannosi, ma un modello di chiamata di strumenti può agire”, ha spiegato Bernadett-Shapiro. “Su un server non autenticato, un utente malintenzionato non ha bisogno di malware o credenziali; ha solo bisogno di una richiesta.”

Quasi la metà degli host Ollama esposti dispone di funzionalità di chiamata di strumenti in grado di eseguire codice e accedere a sistemi esterni. Fonte: SentinelOne/Censys

Lo scenario a rischio più elevato prevede ciò che lui chiama “RAG esposti e abilitati agli strumenti o endpoint di automazione gestiti in remoto come livello di esecuzione”. Un utente malintenzionato potrebbe semplicemente chiedere al modello di riepilogare i documenti interni, estrarre le chiavi API dai repository di codice o chiamare i servizi downstream a cui il modello è configurato per accedere.

Se abbinato a modelli di “pensiero” ottimizzati per il ragionamento in più fasi – presenti sul 26% degli host – il sistema può pianificare operazioni complesse in modo autonomo. I ricercatori hanno identificato almeno 201 host che eseguono configurazioni “non censurate” che rimuovono esplicitamente i guardrail di sicurezza, anche se Bernadett-Shapiro sottolinea che questo rappresenta un limite inferiore.

In altre parole, non si tratta semplicemente di chatbot: sono sistemi di intelligenza artificiale in grado di agire e la metà di essi non è protetta da password.

Cosa dovrebbero fare i laboratori di frontiera

Per gli sviluppatori occidentali di intelligenza artificiale preoccupati di mantenere l’influenza sulla traiettoria della tecnologia, Bernadett-Shapiro raccomanda un approccio diverso al rilascio dei modelli.

“I laboratori di frontiera non possono controllare l’implementazione, ma possono determinare i rischi che rilasciano nel mondo”, ha affermato. Ciò include “l’investimento nel monitoraggio post-rilascio dell’adozione a livello di ecosistema e dei modelli di abuso” piuttosto che trattare i rilasci come risultati di ricerca una tantum.

L’attuale modello di governance presuppone un’implementazione centralizzata con un’offerta diffusa a monte, l’esatto opposto di ciò che sta realmente accadendo. “Quando un piccolo numero di linee domina ciò che è eseguibile su hardware di base, le decisioni a monte vengono amplificate ovunque”, ha spiegato. “Le strategie di governance devono riconoscere questa inversione”.

Ma il riconoscimento richiede visibilità. Attualmente, la maggior parte dei laboratori che rilasciano modelli a peso aperto non dispongono di un modo sistematico per monitorare come vengono utilizzati, dove vengono distribuiti o se la formazione sulla sicurezza rimane intatta dopo la quantizzazione e la messa a punto.

La prospettiva a 12-18 mesi

Bernadett-Shapiro si aspetta che il livello esposto “persisti e si professionalizzi” poiché l’uso degli strumenti, gli agenti e gli input multimodali diventeranno capacità predefinite piuttosto che eccezioni. Il margine transitorio continuerà ad agitarsi man mano che gli hobbisti sperimentano, ma la spina dorsale diventerà più stabile, più capace e gestirà dati più sensibili.

L’applicazione rimarrà disomogenea perché le implementazioni VPS residenziali e di piccole dimensioni non corrispondono ai controlli di governance esistenti. “Questo non è un problema di errata configurazione”, ha sottolineato. “Stiamo osservando la formazione precoce di un substrato di calcolo AI pubblico e non gestito. Non esiste alcun interruttore centrale da invertire.”

La dimensione geopolitica aggiunge urgenza. “Quando la maggior parte del calcolo dell’intelligenza artificiale non gestita a livello mondiale dipende da modelli rilasciati da una manciata di laboratori non occidentali, i presupposti tradizionali su influenza, coordinamento e risposta post-rilascio diventano più deboli”, ha affermato Bernadett-Shapiro.

Per gli sviluppatori e i politici occidentali, l’implicazione è cruda: “Anche la perfetta governance delle proprie piattaforme ha un impatto limitato sulla superficie dei rischi del mondo reale se le capacità dominanti risiedono altrove e si propagano attraverso infrastrutture aperte e decentralizzate”.

L’ecosistema dell’intelligenza artificiale open source si sta globalizzando, ma il suo centro di gravità si sta spostando decisamente verso est. Non attraverso una strategia coordinata, ma attraverso l’economia pratica di chi è disposto a pubblicare ciò di cui ricercatori e operatori hanno effettivamente bisogno per gestire l’IA a livello locale.

I 175.000 ospiti esposti mappati in questo studio sono solo la superficie visibile di quel riallineamento fondamentale, che i politici occidentali stanno solo iniziando a riconoscere, per non parlare di affrontare.

Vedi anche: Huawei descrive in dettaglio la roadmap di sviluppo dell’intelligenza artificiale open source al Huawei Connect 2025

Banner per gli eventi AI & Big Data Expo di TechEx.

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni

AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *