I nostri modelli aperti più capaci fino ad oggi

 | Intelligenza-Artificiale

All’edge, i nostri modelli E2B ed E4B ridefiniscono l’utilità sul dispositivo, dando priorità alle funzionalità multimodali, all’elaborazione a bassa latenza e all’integrazione perfetta dell’ecosistema rispetto al conteggio dei parametri grezzi.

Potente, accessibile, aperto

Per alimentare la prossima generazione di ricerca e prodotti pionieristici, abbiamo dimensionato i modelli Gemma 4 appositamente per funzionare e ottimizzare in modo efficiente l’hardware: da miliardi di dispositivi Android in tutto il mondo, alle GPU per laptop, fino alle workstation e agli acceleratori per sviluppatori.

Utilizzando questi modelli altamente ottimizzati, puoi mettere a punto Gemma 4 per ottenere prestazioni all’avanguardia nelle tue attività specifiche. Abbiamo già riscontrato un successo incredibile con questo approccio; ad esempio, INSAIT ha creato un modello pionieristico di prima lingua bulgara (BgGPT), e abbiamo collaborato con l’Università di Yale Cell2Sentence-Scale per scoprire nuovi percorsi per la terapia del cancro, tra molti altri.

Ecco cosa rende Gemma 4 la nostra famiglia di modelli aperti più capace di sempre:

  • Ragionamento avanzato: Capace di pianificazione in più fasi e logica profonda, Gemma 4 dimostra miglioramenti significativi nei benchmark matematici e nel seguire le istruzioni che lo richiedono.
  • Flussi di lavoro agenti: Il supporto nativo per chiamate di funzioni, output JSON strutturato e istruzioni di sistema native ti consente di creare agenti autonomi in grado di interagire con diversi strumenti e API ed eseguire flussi di lavoro in modo affidabile.
  • Generazione del codice: Gemma 4 supporta codice offline di alta qualità, trasformando la tua workstation in un assistente di codice AI locale.
  • Visione e audio: Tutti i modelli elaborano nativamente video e immagini, supportano risoluzioni variabili ed eccellono in attività visive come l’OCR e la comprensione dei grafici. Inoltre, i modelli E2B ed E4B dispongono di ingresso audio nativo per il riconoscimento e la comprensione del parlato.
  • Contesto più lungo: Elabora senza problemi contenuti di lunga durata. I modelli edge presentano una finestra di contesto da 128K, mentre i modelli più grandi offrono fino a 256K, consentendo di passare repository o documenti lunghi in un unico prompt.
  • Oltre 140 lingue: Con formazione nativa in oltre 140 lingue, Gemma 4 aiuta gli sviluppatori a creare applicazioni inclusive e ad alte prestazioni per un pubblico globale.

Modelli versatili per hardware diversificato

Stiamo rilasciando i pesi del modello Gemma 4 in dimensioni su misura per hardware e casi d’uso specifici, assicurandoti un ragionamento di prima classe ovunque ne abbia bisogno:

Modelli 26B e 31B: Intelligenza di frontiera, offline sui vostri personal computer

Ottimizzati per fornire a ricercatori e sviluppatori ragionamenti all’avanguardia su hardware accessibile, i nostri pesi bfloat16 non quantizzati si adattano in modo efficiente a una singola GPU NVIDIA H100 da 80 GB. Per le configurazioni locali, le versioni quantizzate vengono eseguite in modo nativo su GPU consumer per alimentare i tuoi IDE, assistenti di codifica e flussi di lavoro agenti. La nostra miscela di esperti (MoE) 26B si concentra sulla latenza, attivando solo 3,8 miliardi dei suoi parametri totali durante l’inferenza per fornire token eccezionalmente veloci al secondo, mentre la nostra Dense 31B massimizza la qualità grezza e fornisce una potente base per la messa a punto.

Fonte: deepmind.google

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *