L’implementazione dell’intelligenza artificiale aziendale si trova ad affrontare una tensione fondamentale: le organizzazioni hanno bisogno di modelli linguistici sofisticati ma si oppongono ai costi infrastrutturali e al consumo energetico dei sistemi di frontiera.
I recenti aggiornamenti di NTT Inc lancio di tsuzumi 2, un modello LLM (Lightweight Large Language Model) in esecuzione su una singola GPU, dimostra come le aziende stanno risolvendo questo vincolo, con implementazioni iniziali che mostrano prestazioni corrispondenti a modelli più grandi a una frazione del costo operativo.
Il business case è semplice. I tradizionali modelli linguistici di grandi dimensioni richiedono dozzine o centinaia di GPU, creando barriere sul consumo di elettricità e sui costi operativi che rendono l’implementazione dell’intelligenza artificiale poco pratica per molte organizzazioni.

Per le aziende che operano in mercati con infrastrutture energetiche limitate o budget operativi limitati, questi requisiti eliminano l’intelligenza artificiale come opzione praticabile. Il comunicato stampa dell’azienda illustra le considerazioni pratiche che guidano l’adozione di un LLM leggero con l’implementazione della Tokyo Online University.
L’università gestisce una piattaforma on-premise che mantiene i dati degli studenti e del personale all’interno della rete del campus, un requisito di sovranità dei dati comune a tutti gli istituti scolastici e ai settori regolamentati.
Dopo aver verificato che tsuzumi 2 gestisce la comprensione di contesti complessi e l’elaborazione di documenti di lunga durata a livelli pronti per la produzione, l’università lo ha implementato per il miglioramento delle domande e risposte dei corsi, il supporto alla creazione di materiale didattico e la guida personalizzata degli studenti.
Il funzionamento a GPU singola significa che l’università evita sia le spese in conto capitale per i cluster GPU sia i costi correnti dell’elettricità. Ancora più significativo, l’implementazione in sede risolve i problemi di privacy dei dati che impediscono a molti istituti scolastici di utilizzare servizi di intelligenza artificiale basati su cloud che elaborano informazioni sensibili sugli studenti.
Prestazioni senza scala: l’economia tecnica
La valutazione interna di NTT per la gestione delle richieste del sistema finanziario ha mostrato che tsuzumi 2 corrisponde o supera i principali modelli esterni nonostante i requisiti infrastrutturali notevolmente inferiori. Questo rapporto prestazioni/risorse determina la fattibilità dell’adozione dell’intelligenza artificiale per le imprese in cui il costo totale di proprietà guida le decisioni.
Il modello fornisce quelli che NTT definisce “risultati di altissimo livello tra modelli di dimensioni comparabili” nelle prestazioni della lingua giapponese, con particolare forza nei settori aziendali che danno priorità alla conoscenza, all’analisi, al rispetto delle istruzioni e alla sicurezza.
Per le aziende che operano principalmente nei mercati giapponesi, questa ottimizzazione della lingua riduce la necessità di implementare modelli multilingue più ampi che richiedono risorse computazionali significativamente maggiori.
Una conoscenza rafforzata nei settori finanziario, medico e pubblico, sviluppata in base alla domanda dei clienti, consente implementazioni specifiche del dominio senza un’approfondita messa a punto.
Le funzionalità RAG (Retrieval-Augmented Generation) e di messa a punto del modello consentono lo sviluppo efficiente di applicazioni specializzate per aziende con basi di conoscenza proprietarie o terminologia specifica del settore in cui i modelli generici hanno prestazioni inferiori.
Sovranità e sicurezza dei dati come driver di business
Al di là delle considerazioni sui costi, la sovranità dei dati favorisce l’adozione di un LLM leggero nei settori regolamentati. Le organizzazioni che gestiscono informazioni riservate sono esposte al rischio quando elaborano dati attraverso servizi di IA esterni soggetti a giurisdizione straniera.
NTT, infatti, posiziona tsuzumi 2 come un “modello puramente domestico” sviluppato da zero in Giappone, operante on-premise o in cloud privati. Ciò risolve le preoccupazioni prevalenti nei mercati dell’Asia-Pacifico in merito alla residenza dei dati, alla conformità normativa e alla sicurezza delle informazioni.
La partnership di FUJIFILM Business Innovation con NTT DOCOMO BUSINESS dimostra come le aziende combinano modelli leggeri con l’infrastruttura dati esistente. La tecnologia REiLI di FUJIFILM converte i dati aziendali non strutturati (contratti, proposte, testo e immagini misti) in informazioni strutturate.
L’integrazione delle capacità generative di tsuzumi 2 consente l’analisi avanzata dei documenti senza trasmettere informazioni aziendali sensibili a fornitori di intelligenza artificiale esterni. Questo approccio architetturale, che combina modelli leggeri con l’elaborazione dei dati in sede, rappresenta una pratica strategia aziendale di intelligenza artificiale che bilancia i requisiti di capacità con sicurezza, conformità e vincoli di costo.
Funzionalità multimodali e flussi di lavoro aziendali
tsuzumi 2 include il supporto multimodale integrato per la gestione di testo, immagini e voce all’interno delle applicazioni aziendali. Ciò è importante per i flussi di lavoro aziendali che richiedono che l’intelligenza artificiale elabori più tipi di dati senza implementare modelli specializzati separati.
Il controllo della qualità della produzione, le operazioni del servizio clienti e i flussi di lavoro di elaborazione dei documenti in genere coinvolgono testo, immagini e talvolta input vocali. I singoli modelli che gestiscono tutti e tre i sistemi riducono la complessità dell’integrazione rispetto alla gestione di più sistemi specializzati con requisiti operativi diversi.
Contesto di mercato e considerazioni sull’implementazione
L’approccio leggero di NTT contrasta con le strategie hyperscaler che enfatizzano modelli massicci con ampie capacità. Per le aziende con budget AI sostanziali e team tecnici avanzati, i modelli di frontiera di OpenAI, Anthropic e Google forniscono prestazioni all’avanguardia.
Tuttavia, questo approccio esclude le organizzazioni prive di queste risorse, una parte significativa del mercato aziendale, in particolare nelle regioni dell’Asia-Pacifico con una qualità delle infrastrutture variabile. Le considerazioni regionali contano.
L’affidabilità energetica, la connettività Internet, la disponibilità dei data center e i quadri normativi variano in modo significativo tra i mercati. I modelli leggeri che consentono l’implementazione on-premise soddisfano queste variazioni meglio degli approcci che richiedono un accesso coerente all’infrastruttura cloud.
Le organizzazioni che valutano l’implementazione di un LLM leggero dovrebbero considerare diversi fattori:
Specializzazione del dominio: La conoscenza rafforzata di Tsuzumi 2 nei settori finanziario, medico e pubblico si rivolge a domini specifici, ma le organizzazioni di altri settori dovrebbero valutare se la conoscenza del dominio disponibile soddisfa i loro requisiti.
Considerazioni sulla lingua: L’ottimizzazione per l’elaborazione della lingua giapponese avvantaggia le operazioni del mercato giapponese, ma potrebbe non essere adatta alle aziende multilingue che richiedono prestazioni coerenti in più lingue.
Complessità di integrazione: La distribuzione in sede richiede capacità tecniche interne per l’installazione, la manutenzione e gli aggiornamenti. Le organizzazioni prive di queste capacità potrebbero trovare alternative basate sul cloud operativamente più semplici nonostante i costi più elevati.
Compromessi prestazionali: Mentre Tsuzumi 2 corrisponde a modelli più ampi in domini specifici, i modelli di frontiera potrebbero sovraperformare in casi limite o nuove applicazioni. Le organizzazioni dovrebbero valutare se le prestazioni specifiche del dominio sono sufficienti o se capacità più ampie giustificano costi infrastrutturali più elevati.
Il percorso pratico da seguire?
L’implementazione di Tsuzumi 2 di NTT dimostra che l’implementazione sofisticata dell’intelligenza artificiale non richiede un’infrastruttura iperscalabile, almeno per le organizzazioni i cui requisiti sono in linea con le funzionalità del modello leggero. Le prime adozioni aziendali mostrano un valore aziendale pratico: costi operativi ridotti, maggiore sovranità dei dati e prestazioni pronte per la produzione per domini specifici.
Mentre le aziende affrontano l’adozione dell’intelligenza artificiale, la tensione tra requisiti di capacità e vincoli operativi guida sempre più la domanda di soluzioni efficienti e specializzate piuttosto che di sistemi generici che richiedono infrastrutture estese.
Per le organizzazioni che valutano le strategie di implementazione dell’intelligenza artificiale, la domanda non è se i modelli leggeri siano “migliori” dei sistemi di frontiera, ma se siano sufficienti per requisiti aziendali specifici affrontando al contempo costi, sicurezza e vincoli operativi che rendono impraticabili approcci alternativi.
La risposta, come dimostrano le implementazioni della Tokyo Online University e di FUJIFILM Business Innovation, è sempre più sì.
Vedi anche: Come Levi Strauss utilizza l’intelligenza artificiale per il suo modello di business DTC-first

Vuoi saperne di più sull’intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell’intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L’evento completo è parte di TechEx ed è situato in concomitanza con altri importanti eventi tecnologici tra cui Fiera della sicurezza informatica. Clic Qui per ulteriori informazioni
AI News è alimentato da Media TechForge. Esplora altri prossimi eventi e webinar sulla tecnologia aziendale Qui.
Fonte: www.artificialintelligence-news.com
