L'ultimo modello di Mistral AI, Maestrale Grande 2 (ML2), presumibilmente compete con i grandi modelli di leader del settore come OpenAI, Meta e Anthropic, nonostante le loro dimensioni siano solo una frazione.
La tempistica di questa uscita è degna di nota, arrivando la stessa settimana del lancio da parte di Meta del suo colosso da 405 miliardi di parametri Lama 3.1 modello. Sia ML2 che Llama 3 vantano capacità impressionanti, tra cui una finestra di contesto di 128.000 token per una “memoria” migliorata e supporto per più lingue.
Mistral AI si è da tempo differenziata attraverso la sua attenzione alla diversità linguistica e ML2 continua questa tradizione. Il modello supporta “decine” di linguaggi e oltre 80 linguaggi di programmazione, rendendolo uno strumento versatile per sviluppatori e aziende in tutto il mondo.
Secondo i benchmark di Mistral, ML2 si comporta in modo competitivo rispetto ai modelli di alto livello come GPT-4o di OpenAI, Claude 3.5 Sonnet di Anthropic e Llama 3.1 405B di Meta in vari test di linguaggio, codifica e matematica.
Nel benchmark ampiamente riconosciuto Massive Multitask Language Understanding (MMLU), ML2 ha ottenuto un punteggio dell'84 percento. Sebbene sia leggermente dietro ai suoi concorrenti (GPT-4o all'88,7%, Claude 3.5 Sonnet all'88,3% e Llama 3.1 405B all'88,6%), vale la pena notare che si stima che gli esperti del dominio umano ottengano un punteggio di circa l'89,8% in questo test.
Efficienza: un vantaggio fondamentale
Ciò che distingue ML2 è la sua capacità di raggiungere alte prestazioni con risorse notevolmente inferiori rispetto ai suoi rivali. Con 123 miliardi di parametri, ML2 è meno di un terzo delle dimensioni del modello più grande di Meta e circa un quattordicesimo delle dimensioni di GPT-4. Questa efficienza ha importanti implicazioni per l'implementazione e le applicazioni commerciali.
A piena precisione a 16 bit, ML2 richiede circa 246 GB di memoria. Sebbene sia ancora troppo grande per una singola GPU, può essere facilmente distribuito su un server con quattro o otto GPU senza ricorrere alla quantizzazione, un'impresa non necessariamente realizzabile con modelli più grandi come GPT-4 o Llama 3.1 405B.
Mistral sottolinea che l'ingombro ridotto di ML2 si traduce in una maggiore produttività, poiché le prestazioni LLM sono in gran parte dettate dalla larghezza di banda della memoria. In termini pratici, ciò significa che ML2 può generare risposte più velocemente rispetto ai modelli più grandi sullo stesso hardware.
Affrontare le sfide chiave
Mistral ha dato priorità alla lotta alle allucinazioni, un problema comune in cui i modelli di intelligenza artificiale generano informazioni convincenti ma inaccurate. L'azienda afferma che ML2 è stato messo a punto per essere più “cauto e perspicace” nelle sue risposte e migliore nel riconoscere quando non dispone di informazioni sufficienti per rispondere a una domanda.
Inoltre, ML2 è progettato per eccellere nel seguire istruzioni complesse, specialmente in conversazioni più lunghe. Questo miglioramento nelle capacità di seguire i prompt potrebbe rendere il modello più versatile e intuitivo in varie applicazioni.
In un cenno alle preoccupazioni aziendali pratiche, Mistral ha ottimizzato ML2 per generare risposte concise ove appropriato. Mentre gli output verbosi possono portare a punteggi di benchmark più elevati, spesso comportano un aumento del tempo di elaborazione e dei costi operativi, una considerazione che potrebbe rendere ML2 più attraente per l'uso commerciale.
Rispetto al precedente Mistral Large, è stato dedicato molto più impegno alle capacità di allineamento e istruzione. Su WildBench, ArenaHard e MT Bench, si comporta alla pari con i migliori modelli, pur essendo significativamente meno prolisso. (4/N) foto.twitter.com/fvPOqfLZSq
— Guillaume Lample @ ICLR 2024 (@GuillaumeLample) 24 luglio 2024
Licenza e disponibilità
Mentre ML2 è disponibile gratuitamente su repository popolari come Faccia abbracciatai suoi termini di licenza sono più restrittivi di alcuni di quelli di Mistral offerte precedenti.
A differenza della licenza open source Apache 2 utilizzata per il modello Mistral-NeMo-12B, ML2 viene rilasciata sotto la licenza Licenza di ricerca MistralCiò consente l'uso non commerciale e di ricerca, ma richiede una licenza commerciale separata per le applicazioni aziendali.
Mentre la corsa all'intelligenza artificiale si scalda, ML2 di Mistral rappresenta un significativo passo avanti nell'equilibrio tra potenza, efficienza e praticità. Resta da vedere se riuscirà davvero a sfidare il predominio dei giganti della tecnologia, ma la sua uscita è sicuramente un'aggiunta entusiasmante al campo dei grandi modelli linguistici.
(Fotografato da Sean Robertson)
Guarda anche: I senatori indagano su OpenAI in materia di sicurezza e pratiche di impiego
Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera AI e Big Data che si svolge ad Amsterdam, California e Londra. L'evento completo è co-localizzato con altri eventi leader tra cui Conferenza sull'automazione intelligente, BloccoX, Settimana della Trasformazione DigitaleE Fiera della sicurezza informatica e del cloud.
Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.
Il post Mistral Large 2: il Davide contro i Golia delle Big Tech è apparso per la prima volta su Notizie di intelligenza artificiale.
Fonte: www.artificialintelligence-news.com