Per garantire che i sistemi di IA riflettano i valori e le normative locali, le nazioni stanno sempre più perseguendo strategie di IA sovrane; sviluppando l'IA utilizzando la propria infrastruttura, i propri dati e la propria competenza. NVIDIA sta prestando il suo supporto a questo movimento con il lancio di quattro nuovi NVIDIA Microservizi di inferenza neurale (NIM).
Questi microservizi sono progettati per semplificare la creazione e l'implementazione di applicazioni di intelligenza artificiale generativa, supportando modelli di comunità su misura per regione. Promettono un coinvolgimento più profondo degli utenti attraverso una migliore comprensione delle lingue locali e delle sfumature culturali, portando a risposte più accurate e pertinenti.
Questa mossa arriva in un momento di previsto boom nel mercato del software di intelligenza artificiale generativa dell'area Asia-Pacifico. ABI Research previsioni un aumento dei ricavi da 5 miliardi di dollari quest'anno alla sbalorditiva cifra di 48 miliardi di dollari entro il 2030.
Tra le nuove offerte ci sono due modelli linguistici regionali: Llama-3-Swallow-70B, addestrato su dati giapponesi, e Llama-3-Taiwan-70B, ottimizzato per il mandarino. Questi modelli sono progettati per possedere una conoscenza più approfondita delle leggi, delle normative e delle complessità culturali locali.
A rafforzare ulteriormente l'offerta in lingua giapponese è la famiglia di modelli RakutenAI 7B. Basati su Mistral-7B e addestrati su dataset sia in inglese che in giapponese, sono disponibili come due distinti microservizi NIM per le funzioni Chat e Instruct. In particolare, i modelli di Rakuten hanno ottenuto risultati impressionanti nel benchmark LM Evaluation Harness, assicurandosi il punteggio medio più alto tra i modelli di lingua giapponese aperti di grandi dimensioni tra gennaio e marzo 2024.
La formazione degli LLM sulle lingue regionali è fondamentale per migliorare l'efficacia dell'output. Riflettendo accuratamente le sottigliezze culturali e linguistiche, questi modelli facilitano una comunicazione più precisa e sfumata. Rispetto ai modelli base come Llama 3, queste varianti regionali dimostrano prestazioni superiori nella comprensione del giapponese e del mandarino, nella gestione di attività legali regionali, nella risposta a domande e nella traduzione e sintesi di testi.
Questa spinta globale verso un'infrastruttura di intelligenza artificiale sovrana è evidente nei significativi investimenti da parte di nazioni come Singapore, Emirati Arabi Uniti, Corea del Sud, Svezia, Francia, Italia e India.
“Gli LLM non sono strumenti meccanici che forniscono lo stesso beneficio a tutti. Sono piuttosto strumenti intellettuali che interagiscono con la cultura e la creatività umana. L'influenza è reciproca, dove non solo i modelli sono influenzati dai dati su cui ci alleniamo, ma anche la nostra cultura e i dati che generiamo saranno influenzati dagli LLM”, ha affermato Rio Yokota, professore presso il Global Scientific Information and Computing Center del Tokyo Institute of Technology.
“Pertanto, è di fondamentale importanza sviluppare modelli di IA sovrani che aderiscano alle nostre norme culturali. La disponibilità di Llama-3-Swallow come microservizio NVIDIA NIM consentirà agli sviluppatori di accedere facilmente e distribuire il modello per applicazioni giapponesi in vari settori”.
I microservizi NIM di NVIDIA consentono ad aziende, enti governativi e università di ospitare LLM nativi nei propri ambienti. Gli sviluppatori traggono vantaggio dalla capacità di creare sofisticati copiloti, chatbot e assistenti AI. Disponibili con NVIDIA AI Enterprise, questi microservizi sono ottimizzati per l'inferenza utilizzando la libreria open source NVIDIA TensorRT-LLM, promettendo prestazioni migliorate e velocità di distribuzione.
I guadagni in termini di prestazioni sono evidenti con i microservizi Llama 3 70B (la base per le nuove offerte Llama–3-Swallow-70B e Llama-3-Taiwan-70B), che vantano una produttività fino a 5 volte superiore. Ciò si traduce in costi operativi ridotti e migliori esperienze utente grazie alla latenza ridotta al minimo.
(Foto di Bolivia intelligente)
Vedi anche: OpenAI fornisce la messa a punto di GPT-4o
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera AI e Big Data che si svolge ad Amsterdam, California e Londra. L'evento completo è co-localizzato con altri eventi leader tra cui Conferenza sull'automazione intelligente, BloccoX, Settimana della Trasformazione DigitaleE Fiera della sicurezza informatica e del cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Fonte: www.artificialintelligence-news.com