Mistral AI è stato rilasciato Mixtral 8x22Bche stabilisce un nuovo punto di riferimento per i modelli open source in termini di prestazioni ed efficienza. Il modello vanta solide capacità multilingue e abilità matematiche e di codifica superiori.

Mixtral 8x22B funziona come un modello Sparse Mixture-of-Experts (SMoE), utilizzando solo 39 miliardi dei suoi 141 miliardi di parametri quando è attivo.

Oltre alla sua efficienza, Mixtral 8x22B vanta la fluidità in diverse lingue principali tra cui inglese, francese, italiano, tedesco e spagnolo. La sua abilità si estende a settori tecnici con forti capacità matematiche e di codifica. In particolare, il modello supporta la chiamata di funzioni native abbinata a una “modalità di output vincolato”, facilitando lo sviluppo di applicazioni su larga scala e gli aggiornamenti tecnologici.

Con una sostanziale finestra di contesto da 64.000 token, Mixtral 8x22B garantisce il richiamo preciso delle informazioni da documenti voluminosi, attraendo ulteriormente l'utilizzo a livello aziendale dove la gestione di estesi set di dati è routine.

In linea con la promozione di un ambiente di ricerca sull'intelligenza artificiale collaborativo e innovativo, Mistral AI ha rilasciato Mixtral 8x22B con la licenza Apache 2.0. Questa licenza open source altamente permissiva garantisce un utilizzo senza restrizioni e consente un'adozione diffusa.

Statisticamente, Mixtral 8x22B surclassa molti modelli esistenti. Nei confronti diretti sui parametri di riferimento standard del settore – che vanno dal buon senso, al ragionamento, alla conoscenza specifica della materia – la nuova innovazione di Mistral eccelle. I dati rilasciati da Mistral AI illustrano che Mixtral 8x22B supera significativamente il modello LLaMA 2 70B in vari contesti linguistici attraverso il ragionamento critico e i benchmark di conoscenza:

Inoltre, nelle arene della codifica e della matematica, Mixtral continua a dominare tra i modelli aperti. I risultati aggiornati mostrano un notevole miglioramento delle prestazioni nei benchmark matematici, in seguito al rilascio di una versione istruita del modello:

I potenziali utenti e sviluppatori sono invitati a esplorare Mixtral 8x22B su La piattaformaLa piattaforma interattiva di Mistral AI. Qui possono interagire direttamente con il modello.

In un'era in cui il ruolo dell'intelligenza artificiale è in continua espansione, la combinazione di alte prestazioni, efficienza e accessibilità aperta di Mixtral 8x22B segna una pietra miliare significativa nella democratizzazione degli strumenti avanzati di intelligenza artificiale.

(Fotografato da Giosuè Gold)

Guarda anche: SAS mira a rendere l'intelligenza artificiale accessibile indipendentemente dalle competenze con modelli di intelligenza artificiale pacchettizzati

Vuoi saperne di più sull'intelligenza artificiale e sui big data dai leader del settore? Guardare Fiera dell'intelligenza artificiale e dei big data che si svolge ad Amsterdam, in California, e a Londra. L'evento completo è collocato in contemporanea con altri eventi importanti, tra cui BlockX, Settimana della trasformazione digitaleE Fiera sulla sicurezza informatica e sul cloud.

Esplora altri prossimi eventi e webinar sulla tecnologia aziendale forniti da TechForge Qui.

tag: 8x22b, ai, intelligenza artificiale, sviluppo, Maestrale ce l'hai, mixtral, Modello, fonte aperta

Fonte: www.artificialintelligence-news.com

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *