Gemma è una famiglia di modelli aperti leggeri e all'avanguardia creati a partire dalla stessa ricerca e tecnologia utilizzata per creare i modelli Gemini. Sviluppata da Google DeepMind e da altri team di Google, Gemma prende il nome dal latino gemma, che significa "pietra preziosa". I pesi del modello Gemma sono supportati da strumenti per sviluppatori che promuovono l'innovazione, la collaborazione e l'uso responsabile dell'intelligenza artificiale (IA).
I modelli Gemma sono disponibili per l'esecuzione nelle tue applicazioni e sui tuoi hardware, dispositivi mobili o servizi in hosting. Puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione in modo che siano eccellenti nell'esecuzione di attività importanti per te e i tuoi utenti. I modelli Gemma traggono ispirazione e la derivazione tecnologica dalla famiglia di modelli Gemini e sono creati per consentire alla community di sviluppo IA di estendersi e andare oltre.
Puoi utilizzare i modelli Gemma per la generazione di testo, ma puoi anche ottimizzarli per specializzarli nell'esecuzione di attività specifiche. I modelli Gemma ottimizzati possono fornire a te e ai tuoi utenti soluzioni di IA generativa più mirate ed efficienti. Consulta la nostra guida all'ottimizzazione con LoRA e prova! Non vediamo l'ora di vedere cosa creerai con Gemma!
Questa documentazione per gli sviluppatori fornisce una panoramica dei modelli Gemma e delle guide di sviluppo disponibili per scoprire come applicarli e ottimizzarli per applicazioni specifiche.
Dimensioni e funzionalità del modello
I modelli Gemma sono disponibili in diverse dimensioni per consentirti di creare soluzioni di IA generativa in base alle risorse di calcolo disponibili, alle funzionalità necessarie e a dove vuoi eseguirle. Se non sai da dove iniziare, prova la dimensione del parametro di 2 miliardi per i requisiti delle risorse inferiori e la maggiore flessibilità nel deployment del modello.
Dimensione parametri | Input | Output | Versioni ottimizzate | Piattaforme previste |
---|---|---|---|---|
B2 | Testo | Testo |
|
Dispositivi mobili e laptop |
7 MLD | Testo | Testo |
|
Computer desktop e server di piccole dimensioni |
Con la funzionalità multi-backed Keras 3.0, puoi eseguire questi modelli su TensorFlow, JAX e PyTorch o persino utilizzare le implementazioni native di JAX (basate sul framework FLAX) e di PyTorch.
Puoi scaricare i modelli Gemma da Kaggle Models.
Modelli ottimizzati
Puoi modificare il comportamento dei modelli Gemma con ulteriore addestramento, in modo che il modello funzioni meglio in attività specifiche. Questo processo è chiamato ottimizzazione del modello e, sebbene questa tecnica migliori la capacità di un modello di eseguire attività mirate, può anche peggiorare il modello in altre attività. Per questo motivo, i modelli di Gemma sono disponibili sia in versione ottimizzata per le istruzioni che preaddestrata:
- Preaddestrato: queste versioni del modello non sono addestrate su attività o istruzioni specifiche oltre al set di addestramento dei dati principali di Gemma. Non devi eseguire il deployment di questi modelli senza eseguire alcune ottimizzazioni.
- Ottimizzato per le istruzioni: queste versioni del modello sono addestrate con le interazioni nel linguaggio umano e possono rispondere all'input di conversazione, in modo simile a un bot di chat.
Inizia
Consulta queste guide per iniziare a creare soluzioni con Gemma:
- Generazione del testo con Gemma: crea un esempio di generazione di testo di base con il modello.
- Ottimizzazione di Gemma con LoRA: esegui il perfezionamento della LoRA su un modello Gemma 2B.
- Ottimizzazione di un modello Gemma utilizzando l'addestramento distribuito: utilizza Keras con un backend JAX per ottimizzare un modello Gemma 7B con LoRA e il parallelismo dei modelli.
- Gemma in PyTorch: genera testo con Gemma utilizzando PyTorch.
- Deployment di Gemma in produzione: utilizza Vertex AI per il deployment di Gemma in produzione.