Panoramica del modello Gemma 3

Gemma è una famiglia di modelli di intelligenza artificiale (IA) generativa che puoi utilizzare in una vasta gamma di attività di generazione, tra cui risposta alle domande, riepilogo e ragionamento. I modelli Gemma sono forniti con pesi aperti e consentono un utilizzo commerciale responsabile, consentendoti di ottimizzarli e di implementarli nei tuoi progetti e nelle tue applicazioni.

La release Gemma 3 include le seguenti funzionalità chiave. Provalo in AI Studio:

Puoi scaricare i modelli di Gemma 3 da Kaggle e Hugging Face. Per ulteriori dettagli tecnici su Gemma 3, consulta la scheda del modello e il report tecnico. Sono disponibili anche per il download versioni precedenti dei modelli Gemma Core. Per ulteriori informazioni, consulta Modelli Gemma precedenti.

Prova Gemma 3 Scaricalo su Kaggle Scaricalo su Hugging Face

Input multimodale di testo e immagini

Con Gemma 3 puoi affrontare attività di analisi e generazione più complesse grazie alla sua capacità di gestire dati di immagini e testo. Puoi utilizzare il modello per interpretare i dati delle immagini, identificare gli oggetti, estrarre i dati di testo e completare molte altre attività di input visivo e output di testo. Inizia a creare

Finestra contestuale di 128.000 token

I modelli Gemma 3 possono gestire input prompt fino a 128.000 token, una finestra di contesto 16 volte più grande rispetto ai modelli Gemma precedenti. Il numero elevato di token consente di elaborare diversi articoli di più pagine, singoli articoli più grandi o centinaia di immagini in un unico prompt.

Supporto di molte lingue

Lavora nella tua lingua con il supporto integrato di oltre 140 lingue. Gemma 3 è addestrato a supportare un numero maggiore di lingue rispetto alle versioni precedenti di Gemma, il che ti consente di svolgere più attività visive e di testo nelle lingue utilizzate dai tuoi clienti. Inizia a creare

Dimensioni e quantizzazione dei parametri

I modelli Gemma 3 sono disponibili in 4 dimensioni dei parametri a 5 livelli di precisione, dalla precisione completa a 32 bit alla precisione più bassa a 4 bit. Le diverse dimensioni e precisioni rappresentano un insieme di compromessi per la tua applicazione di IA. I modelli con un numero maggiore di parametri e di bit (maggiore precisione) sono in genere più capaci, ma sono più costosi da eseguire in termini di cicli di elaborazione, costo della memoria e consumo di energia. I modelli con meno parametri e un numero inferiore di bit (meno precisione) hanno meno funzionalità, ma potrebbero essere sufficienti per la tua attività di IA. Nella seguente tabella sono riportati i requisiti di memoria GPU o TPU approssimativi per eseguire inferenze con ogni dimensione delle versioni del modello Gemma 3.

Parametri 32 bit completa BF16 (16 bit) SFP8
(8 bit)
Q4_0
(4 bit)
INT4
(4 bit)
Gemma 3 1B (solo testo) 4 GB 1,5 GB 1,1 GB 892 MB 861 MB
Gemma 3 4B 16 GB 6,4 GB 4,4 GB 3,4 GB 3,2 GB
Gemma 3 12B 48 GB 20 GB 12,2 GB 8,7 GB 8,2 GB
Gemma 3 27B 108 GB 46,4 GB 29,1 GB 21 GB 19,9 GB

Tabella 1. Memoria GPU o TPU approssimativa richiesta per caricare i modelli Gemma 3 basata sul numero di parametri e sul livello di quantizzazione (profondità in bit).

Il consumo di memoria aumenta in base al numero totale di token richiesti per il prompt eseguito. Maggiore è il numero di token necessari per elaborare il prompt, maggiore è la memoria richiesta, oltre a quella necessaria per caricare il modello.

Modelli Gemma precedenti

Puoi utilizzare le generazioni precedenti dei modelli Gemma, che sono disponibili anche su Kaggle e Hugging Face. Per ulteriori dettagli tecnici sui modelli Gemma precedenti, consulta le seguenti pagine delle schede dei modelli:

È tutto pronto per iniziare a creare? Inizia a utilizzare i modelli Gemma.