Responsabile fin dalla progettazione
Gemma è progettata con il ns Principi dell’intelligenza artificiale all’avanguardia. Per rendere i modelli pre-addestrati Gemma sicuri e affidabili, abbiamo utilizzato tecniche automatizzate per filtrare determinate informazioni personali e altri dati sensibili dai set di addestramento. Inoltre, abbiamo utilizzato un’ampia messa a punto e l’apprendimento di rinforzo dal feedback umano (RLHF) per allineare i nostri modelli ottimizzati per le istruzioni con comportamenti responsabili. Per comprendere e ridurre il profilo di rischio dei modelli Gemma, abbiamo condotto valutazioni approfondite tra cui red-teaming manuale, test contraddittori automatizzati e valutazioni delle capacità del modello per attività pericolose. Tali valutazioni sono riportate nel ns Scheda modello.
Stiamo anche rilasciando un nuovo Toolkit di intelligenza artificiale generativa responsabile insieme a Gemma per aiutare sviluppatori e ricercatori a dare priorità alla creazione di applicazioni IA sicure e responsabili. Il kit di strumenti include:
- Classificazione di sicurezza: Forniamo un nuova metodologia per costruire robusti classificatori di sicurezza con esempi minimi.
- Debug: Un modello strumento di debug ti aiuta a indagare sul comportamento di Gemma e ad affrontare potenziali problemi.
- Guida: Puoi accedere alle best practice per gli sviluppatori di modelli basate sull’esperienza di Google nello sviluppo e nell’implementazione di modelli linguistici di grandi dimensioni.
Ottimizzato su framework, strumenti e hardware
Puoi ottimizzare i modelli Gemma sui tuoi dati per adattarli a esigenze applicative specifiche, come il riepilogo o la generazione aumentata con recupero (RAG). Gemma supporta un’ampia varietà di strumenti e sistemi:
- Strumenti multi-framework: Porta il tuo framework preferito, con implementazioni di riferimento per l’inferenza e la messa a punto su multi-framework Keras 3.0, PyTorch nativo, JAX e Hugging Face Transformers.
- Compatibilità tra dispositivi: I modelli Gemma funzionano con i tipi di dispositivi più diffusi, tra cui laptop, desktop, IoT, dispositivi mobili e cloud, consentendo funzionalità di intelligenza artificiale ampiamente accessibili.
- Piattaforme hardware all’avanguardia: Noi abbiamo ha collaborato con NVIDIA per ottimizzare Gemma per le GPU NVIDIAdal data center al cloud fino ai PC RTX AI locali, garantendo prestazioni leader del settore e integrazione con tecnologia all’avanguardia.
- Ottimizzato per Google Cloud: Vertex AI fornisce un ampio set di strumenti MLOps con una gamma di opzioni di ottimizzazione e distribuzione con un clic utilizzando ottimizzazioni di inferenza integrate. La personalizzazione avanzata è disponibile con gli strumenti Vertex AI completamente gestiti o con GKE autogestito, inclusa l’implementazione in un’infrastruttura conveniente su GPU, TPU e CPU da entrambe le piattaforme.
Crediti gratuiti per ricerca e sviluppo
Gemma è pensato per la comunità aperta di sviluppatori e ricercatori che alimentano l’innovazione dell’intelligenza artificiale. Puoi iniziare a lavorare con Gemma oggi stesso utilizzando l’accesso gratuito a Kaggle, un livello gratuito per i notebook Colab e $ 300 in crediti per i nuovi utenti di Google Cloud. Possono presentare domanda anche i ricercatori Crediti Google Cloud fino a $ 500.000 per accelerare i loro progetti.
Iniziare
Puoi scoprire di più su Gemma e accedere alle guide rapide su ai.google.dev/gemma.
Mentre continuiamo ad espandere la famiglia di modelli Gemma, non vediamo l’ora di introdurre nuove varianti per diverse applicazioni. Resta sintonizzato per eventi e opportunità nelle prossime settimane per connetterti, imparare e costruire con Gemma.
Siamo entusiasti di vedere cosa crei!
Fonte: deepmind.google