L’efficienza in termini di costi dell’intelligenza artificiale e la sovranità dei dati sono in contrasto, costringendo le organizzazioni globali a ripensare i quadri di rischio aziendale.
Per oltre un anno, la narrativa dell’IA generativa si è concentrata su una corsa per le capacità, spesso misurando il successo in base al conteggio dei parametri punteggi benchmark errati. Le conversazioni in sala riunioni, tuttavia, stanno subendo una correzione necessaria.
Mentre il fascino dei modelli a basso costo e ad alte prestazioni offre un percorso allettante verso una rapida innovazione, le passività nascoste associate alla residenza dei dati e all’influenza dello stato stanno costringendo a una rivalutazione della selezione dei fornitori. Il laboratorio di intelligenza artificiale DeepSeek con sede in Cina è recentemente diventato un punto focale per questo dibattito a livello di settore.

Secondo Bill Conner, ex consigliere di Interpol E GCHQe attuale amministratore delegato di jitter L’accoglienza iniziale di DeepSeek è stata positiva perché ha sfidato lo status quo dimostrando che “modelli linguistici di grandi dimensioni e ad alte prestazioni non richiedono necessariamente budget su scala della Silicon Valley”.
Per le aziende che desiderano ridurre gli immensi costi associati piloti di IA generativaquesta efficienza era comprensibilmente attraente. Conner osserva che questi “riportati bassi costi di formazione hanno innegabilmente riacceso le conversazioni del settore sull’efficienza, l’ottimizzazione e l’intelligenza artificiale ‘abbastanza buona'”.
Rischi legati all’intelligenza artificiale e alla sovranità dei dati
L’entusiasmo per le performance a prezzi ridotti si è scontrato con le realtà geopolitiche. L’efficienza operativa non può essere dissociata dalla sicurezza dei dati, in particolare quando tali dati alimentano modelli ospitati in giurisdizioni con quadri giuridici diversi in materia di privacy e accesso statale.
Le recenti rivelazioni riguardanti DeepSeek hanno cambiato i conti per le imprese occidentali. Conner sottolinea “le recenti rivelazioni del governo degli Stati Uniti che indicano che DeepSeek non solo archivia dati in Cina, ma li condivide attivamente con i servizi di intelligence statali”.
Questa informativa sposta la questione oltre la conformità standard al GDPR o al CCPA. Il “profilo di rischio va oltre le tipiche preoccupazioni sulla privacy nel regno della sicurezza nazionale”.
Per i leader aziendali, ciò rappresenta un rischio specifico. L’integrazione LLM è raramente un evento autonomo; implica il collegamento del modello a data lake proprietari, sistemi informativi sui clienti e archivi di proprietà intellettuale. Se il modello di intelligenza artificiale sottostante possiede una “backdoor” o obbliga alla condivisione dei dati con un apparato di intelligence straniero, la sovranità viene eliminata e l’impresa aggira di fatto il proprio perimetro di sicurezza e cancella qualsiasi vantaggio in termini di efficienza dei costi.
Conner avverte che “il coinvolgimento di DeepSeek con le reti di approvvigionamento militare e le presunte tattiche di evasione dal controllo delle esportazioni dovrebbero fungere da segnale di avvertimento critico per amministratori delegati, CIO e responsabili del rischio”. L’utilizzo di tale tecnologia potrebbe inavvertitamente coinvolgere un’azienda in violazioni delle sanzioni o compromissioni della catena di fornitura.
Il successo non riguarda più solo la generazione di codice o i riepiloghi dei documenti; riguarda il quadro giuridico ed etico del fornitore. Soprattutto in settori come finanzanel settore sanitario e della difesa, la tolleranza per l’ambiguità relativa alla derivazione dei dati è pari a zero.
I team tecnici potrebbero dare priorità ai benchmark delle prestazioni dell’intelligenza artificiale e alla facilità di integrazione durante la fase di prova del concetto, trascurando potenzialmente la provenienza geopolitica dello strumento e la necessità di sovranità dei dati. I responsabili del rischio e i CIO devono applicare un livello di governance che interroghi il “chi” e il “dove” del modello, non solo il “cosa”.
Governance sull’efficienza dei costi dell’IA
Decidere di adottare o vietare uno specifico modello di IA è una questione di responsabilità aziendale. Azionisti e clienti si aspettano che i loro dati rimangano sicuri e utilizzati esclusivamente per gli scopi aziendali previsti.
Conner inquadra questo concetto esplicitamente per la leadership occidentale, affermando che “per i CEO, i CIO e i responsabili del rischio occidentali, questa non è una questione di prestazioni del modello o di efficienza dei costi”. Invece, “si tratta di governance, responsabilità e responsabilità fiduciaria problema.”
Le imprese “non possono giustificare l’integrazione di un sistema in cui la residenza dei dati, le intenzioni di utilizzo e l’influenza dello stato sono fondamentalmente opachi”. Questa opacità crea una responsabilità inaccettabile. Anche se un modello offre il 95% delle prestazioni di un concorrente alla metà del costo, il rischio di sanzioni normative, danni alla reputazione e perdita di proprietà intellettuale cancella immediatamente tali risparmi.
Il caso di studio DeepSeek serve come spunto per verificare le attuali catene di approvvigionamento dell’IA. I leader devono garantire di avere piena visibilità su dove avviene l’inferenza del modello e chi detiene le chiavi dei dati sottostanti.
Con la maturazione del mercato dell’intelligenza artificiale generativa, la fiducia, la trasparenza e la sovranità dei dati probabilmente supereranno l’attrattiva dell’efficienza dei costi grezzi.
Vedi anche: SAP e Fresenius costruiranno una dorsale AI sovrana per il settore sanitario

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera sulla sicurezza informatica e sul cloud. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
