Panoramica dei modelli Gemma

Gemma è una famiglia di modelli aperti leggeri e all'avanguardia creati a partire dalla stessa ricerca e tecnologia utilizzata per creare i modelli Gemini. Sviluppata da Google DeepMind e da altri team di Google, Gemma prende il nome dal latino gemma, che significa "pietra preziosa". I pesi del modello Gemma sono supportati da strumenti per sviluppatori che promuovono l'innovazione, la collaborazione e l'uso responsabile dell'intelligenza artificiale (IA).

I modelli Gemma sono disponibili per l'esecuzione nelle tue applicazioni e sui tuoi hardware, dispositivi mobili o servizi in hosting. Puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione in modo che siano eccellenti nell'esecuzione di attività importanti per te e i tuoi utenti. I modelli Gemma traggono ispirazione e la derivazione tecnologica dalla famiglia di modelli Gemini e sono creati per consentire alla community di sviluppo IA di estendersi e andare oltre.

Puoi utilizzare i modelli Gemma per la generazione di testo, ma puoi anche ottimizzarli per specializzarli nell'esecuzione di attività specifiche. I modelli Gemma ottimizzati possono fornire a te e ai tuoi utenti soluzioni di IA generativa più mirate ed efficienti. Consulta la nostra guida all'ottimizzazione con LoRA e prova! Non vediamo l'ora di vedere cosa creerai con Gemma!

Questa documentazione per gli sviluppatori fornisce una panoramica dei modelli Gemma e delle guide di sviluppo disponibili per scoprire come applicarli e ottimizzarli per applicazioni specifiche.

Dimensioni e funzionalità del modello

I modelli Gemma sono disponibili in diverse dimensioni per consentirti di creare soluzioni di IA generativa in base alle risorse di calcolo disponibili, alle funzionalità necessarie e a dove vuoi eseguirle. Se non sai da dove iniziare, prova la dimensione del parametro di 2 miliardi per i requisiti delle risorse inferiori e la maggiore flessibilità nel deployment del modello.

Dimensione parametri Input Output Versioni ottimizzate Piattaforme previste
B2 Testo Testo
  • Preaddestrato
  • Ottimizzato per le istruzioni
Dispositivi mobili e laptop
7 MLD Testo Testo
  • Preaddestrato
  • Ottimizzato per le istruzioni
Computer desktop e server di piccole dimensioni

Con la funzionalità multi-backed Keras 3.0, puoi eseguire questi modelli su TensorFlow, JAX e PyTorch o persino utilizzare le implementazioni native di JAX (basate sul framework FLAX) e di PyTorch.

Puoi scaricare i modelli Gemma da Kaggle Models.

Modelli ottimizzati

Puoi modificare il comportamento dei modelli Gemma con ulteriore addestramento, in modo che il modello funzioni meglio in attività specifiche. Questo processo è chiamato ottimizzazione del modello e, sebbene questa tecnica migliori la capacità di un modello di eseguire attività mirate, può anche peggiorare il modello in altre attività. Per questo motivo, i modelli di Gemma sono disponibili sia in versione ottimizzata per le istruzioni che preaddestrata:

  • Preaddestrato: queste versioni del modello non sono addestrate su attività o istruzioni specifiche oltre al set di addestramento dei dati principali di Gemma. Non devi eseguire il deployment di questi modelli senza eseguire alcune ottimizzazioni.
  • Ottimizzato per le istruzioni: queste versioni del modello sono addestrate con le interazioni nel linguaggio umano e possono rispondere all'input di conversazione, in modo simile a un bot di chat.

Inizia

Consulta queste guide per iniziare a creare soluzioni con Gemma: