Lo strumento di codifica AI di Alibaba solleva problemi di sicurezza in Occidente

 | Intelligenza-Artificiale

Alibaba ha rilasciato un nuovo modello di codifica AI chiamato Qwen3-Coder, costruito per gestire attività software complesse utilizzando un ampio modello open source. Lo strumento fa parte della famiglia Qwen3 di Alibaba e fino ad oggi è stato promosso come agente di codifica più avanzato dell'azienda.

Il modello utilizza una miscela di esperti (MOE), attivando 35 miliardi di parametri su un totale di 480 miliardi e supportando fino a 256.000 token di contesto. Secondo quanto riferito, quel numero può essere allungato a 1 milione usando tecniche speciali di estrapolazione. La società afferma che il codificatore Qwen3 ha sovraperformato altri modelli aperti in compiti agenti, comprese le versioni di Moonshot AI e DeepSeek.

Ma non tutti lo vedono come una buona notizia. Jurgita Lapienyė, caporedattore di Cybernews, avverte che il codificatore Qwen3 potrebbe essere più di un semplice assistente di codifica: potrebbe rappresentare un rischio reale per i sistemi tecnologici globali se adottato ampiamente dagli sviluppatori occidentali.

Un cavallo di Troia in abbigliamento open source?

La messaggistica di Alibaba attorno al CODER QWEN3 si è concentrata sulla sua forza tecnica, confrontandolo con strumenti di alto livello di OpenAI e antropico. Ma mentre i punteggi di riferimento e le caratteristiche attirano l'attenzione, Lapienyė suggerisce che potrebbero anche distrarre dal vero problema: la sicurezza.

Non è che la Cina stia raggiungendo l'IA, che è già noto. La preoccupazione più profonda riguarda i rischi nascosti di utilizzare il software generato da sistemi AI che sono difficili da ispezionare o comprendere appieno.

Come diceva Lapienyė, gli sviluppatori potrebbero essere “sonnambuli in un futuro” in cui i sistemi di base sono inconsapevolmente costruiti con codice vulnerabile. Strumenti come Qwen-Coder possono semplificare la vita, ma potrebbero anche introdurre sottili punti deboli che passano inosservati.

Questo rischio non è ipotetico. Ricercatori di Cybernews Recensione di recente l'uso di AI tra le principali aziende statunitensi e ha scoperto che 327 dell'S & P 500 ora riferiscono pubblicamente utilizzando strumenti di intelligenza artificiale. Solo in quelle aziende, i ricercatori hanno identificato quasi 1.000 vulnerabilità relative all'IA.

L'aggiunta di un altro modello di intelligenza artificiale, specialmente uno sviluppato secondo le rigide leggi sulla sicurezza nazionale cinese, potrebbe aggiungere un altro livello di rischio, uno che è più difficile da controllare.

Quando il codice diventa un backdoor

Gli sviluppatori di oggi si basano fortemente sugli strumenti di intelligenza artificiale per scrivere codice, correggere i bug e modellare il modo in cui vengono costruite le applicazioni. Questi sistemi sono veloci, disponibili e migliorano ogni giorno.

E se quegli stessi sistemi fossero addestrati a iniettare difetti? BUG non ovvi, ma piccoli problemi difficili da logare che non attivano allarmi. Una vulnerabilità che sembra una decisione di progettazione innocua potrebbe non essere rilevata per anni.

È così che iniziano spesso gli attacchi della catena di approvvigionamento. Esempi passati, come l'incidente di SolarWinds, mostrano quanto l'infiltrazione a lungo termine può essere eseguita in silenzio e pazientemente. Con l'accesso e il contesto sufficienti, un modello di intelligenza artificiale potrebbe imparare a piantare problemi simili, specialmente se avesse esposizione a milioni di basi di codice.

Non è solo una teoria. Secondo la legge nazionale di intelligence cinese, aziende come Alibaba devono collaborare con le richieste del governo, comprese quelle che coinvolgono dati e modelli di intelligenza artificiale. Ciò sposta la conversazione dalle prestazioni tecniche alla sicurezza nazionale.

Cosa succede al tuo codice?

Un altro problema importante è l'esposizione ai dati. Quando gli sviluppatori usano strumenti come Qwen3-Coder per scrivere o debug di codice, ogni pezzo di tale interazione potrebbe rivelare informazioni sensibili.

Ciò potrebbe includere algoritmi proprietari, logica di sicurezza o progettazione di infrastrutture, effettivamente il tipo di dettagli che possono essere utili a uno stato straniero.

Anche se il modello è open source, c'è ancora molto che gli utenti non possono vedere. L'infrastruttura di backend, i sistemi di telemetria e i metodi di tracciamento dell'utilizzo potrebbero non essere trasparenti. Ciò rende difficile sapere dove vanno i dati o cosa potrebbe ricordare il modello nel tempo.

Autonomia senza supervisione

Alibaba si è anche concentrato sull'intelligenza artificiale agente: modelli che possono agire in modo più indipendente rispetto agli assistenti standard. Questi strumenti non suggeriscono solo righe di codice. Possono essere assegnati compiti completi, operare con input minimi e prendere decisioni da soli.

Potrebbe sembrare efficiente, ma solleva anche bandiere rosse. Un agente di codifica completamente autonomo in grado di scansionare intere basi di codice e apportare modifiche potrebbe diventare pericoloso nelle mani sbagliate.

Immagina un agente in grado di comprendere le difese del sistema di un'azienda e gli attacchi su misura per sfruttarli. Lo stesso set di abilità che aiuta gli sviluppatori a muoversi più velocemente potrebbe essere riproposto dagli aggressori a muoversi ancora più velocemente.

La regolamentazione non è ancora pronta

Nonostante questi rischi, le normative attuali non affrontano strumenti come Qwen3-Coder in modo significativo. Il governo degli Stati Uniti ha trascorso anni a discutere di preoccupazioni sulla privacy dei dati legati ad app come Tiktok, ma c'è poca supervisione pubblica di strumenti di intelligenza artificiale sviluppati all'estero.

Gruppi come il Comitato per gli investimenti esteri negli Stati Uniti (CFIUS) Acquisizioni della società, ma non esiste un processo simile per la revisione di modelli di intelligenza artificiale che potrebbero rappresentare rischi per la sicurezza nazionale.

L'ordine esecutivo del presidente Biden sull'intelligenza artificiale si concentra principalmente su modelli nostrani e pratiche di sicurezza generale. Ma esclude le preoccupazioni per gli strumenti importati che potrebbero essere incorporati in ambienti sensibili come l'assistenza sanitaria, la finanza o le infrastrutture nazionali.

Gli strumenti di intelligenza artificiale in grado di scrivere o modificare il codice devono essere trattati con la stessa serietà delle minacce della catena di approvvigionamento del software. Ciò significa impostare linee guida chiare per dove e come possono essere utilizzate.

Cosa dovrebbe succedere dopo?

Per ridurre il rischio, le organizzazioni che si occupano di sistemi sensibili dovrebbero mettere in pausa prima di integrare il codificatore Qwen3-o qualsiasi AI agente sviluppato all'estero, nei loro flussi di lavoro. Se non inviti qualcuno di cui non ti fidi di guardare il tuo codice sorgente, perché lasciare che la loro AI lo riscriva?

Gli strumenti di sicurezza devono anche recuperare. Il software di analisi statica potrebbe non rilevare backdoor complessi o sottili problemi logici realizzati dall'intelligenza artificiale. L'industria ha bisogno di nuovi strumenti progettati specificamente per flag e testare il codice generato dall'IA per motivi sospetti.

Infine, gli sviluppatori, i leader tecnologici e i regolatori devono capire che l'intelligenza artificiale che genera il codice non è neutrale. Questi sistemi hanno energia, sia come strumenti utili che potenziali minacce. Le stesse caratteristiche che li rendono utili possono anche renderli pericolosi.

Lapienyė ha definito il codificatore Qwen3 “un potenziale cavallo di Trojan” e la metafora si adatta. Non si tratta solo di produttività. Si tratta di chi è dentro le porte.

Non tutti sono d'accordo su ciò che conta

Wang Jian, il fondatore di Alibaba Cloud, vede le cose in modo diverso. In un'intervista con BloombergHa detto che l'innovazione non riguarda l'assunzione del talento più costoso, ma per la raccolta di persone che possono costruire l'ignoto. Ha criticato l'approccio della Silicon Valley all'assunzione di intelligenza artificiale, in cui i giganti tecnologici ora competono per i migliori ricercatori come le squadre sportive che fanno offerte sugli atleti.

“L'unica cosa che devi fare è ottenere la persona giusta”, ha detto Wang. “Non proprio la persona costosa.”

Crede anche che la razza cinese AI sia salutare, non ostile. Secondo Wang, le aziende a turno si avvicinano, il che aiuta l'intero ecosistema a crescere più velocemente.

“Puoi avere l'iterazione molto rapida della tecnologia a causa di questa competizione”, ha detto. “Non credo sia brutale, ma penso che sia molto salutare.”

Tuttavia, la competizione open source non garantisce la fiducia. Gli sviluppatori occidentali devono riflettere attentamente su quali strumenti usano e chi li hanno costruiti.

La linea di fondo

Il coder Qwen3 può offrire prestazioni impressionanti e accesso aperto, ma il suo uso comporta rischi che vanno oltre i parametri di riferimento e la velocità di codifica. In un momento in cui gli strumenti di intelligenza artificiale stanno modellando il modo in cui i sistemi critici sono costruiti, vale la pena chiedere non solo cosa possono fare questi strumenti, ma chi beneficia quando lo fanno.

(Foto di Shahadat Rahman)

Vedi anche: Il nuovo modello di AI di Ai di Alibaba Modello di Ai stabilisce i record open source

Vuoi saperne di più sull'intelligenza artificiale e sui big da parte dei leader del settore? Guardare AI e Big Data Expo si svolge ad Amsterdam, in California e a Londra. L'evento completo è co-localizzato con altri eventi principali tra cui Conferenza di automazione intelligente, Blockx, Settimana di trasformazione digitaleE Cyber Security & Cloud Expo.

Esplora altri prossimi eventi tecnologici aziendali e webinar alimentati da TechForge Qui.

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *