Modelli aperti di Gemma
Una famiglia di modelli aperti, leggeri e all'avanguardia basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini
Ti presentiamo
Gemma 2
Riprogettato per prestazioni straordinarie ed efficienza senza pari, Gemma 2 è ottimizzato per un'inferenza ultraveloce su diversi hardware.
5 scatti
MMLU
Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.
25 colpi
ARC-C
Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande a cui è stata data una risposta errata da algoritmi comuni (basati sul recupero e sulla cooccorrenza delle parole).
5 scatti
GSM8K
Il benchmark GSM8K verifica la capacità di un modello linguistico di risolvere problemi matematici a livello scolastico che spesso richiedono più passaggi di ragionamento.
3-5-colpi
AGIEval
Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.
3 foto, Lettino
BBH
Il benchmark BBH (BIG-Bench Hard) si concentra su attività ritenute al di là delle capacità degli attuali modelli linguistici, testandone i limiti in vari domini di ragionamento e comprensione.
3 foto, F1
RILASCIA
DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto sui paragrafi.
5 scatti
Winogrande
Il benchmark Winogrande testa la capacità di un modello linguistico di risolvere attività di completamento dei campi con opzioni binarie ambigue, che richiedono un ragionamento di buon senso generalizzato.
10 tiri
HellaSwag
Il benchmark HellaSwag mette alla prova la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando la fine più logica di una storia.
4-colpi
MAT
MATH valuta la capacità di un modello linguistico di risolvere problemi matematici complessi con enunciato, che richiedono ragionamento, risoluzione di problemi a più passaggi e comprensione di concetti matematici.
Tiro 0
ARC-e
Il benchmark ARC-e verifica le competenze avanzate di risposta alle domande di un modello linguistico con domande scientifiche a scelta multipla a livello scolastico scolastico.
Tiro 0
PIQA
Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare le conoscenze fisiche del buon senso rispondendo a domande sulle interazioni fisiche quotidiane.
Tiro 0
QA
Il benchmark SIQA valuta la comprensione delle interazioni sociali e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.
Tiro 0
Boolq
Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande di tipo sì/no che si verificano naturalmente, testando la capacità dei modelli di svolgere attività di inferenza del linguaggio naturale reali.
5 tiri
TriviaQA
Il benchmark TriviaQA valuta le competenze di comprensione della lettura con triplette di domande, risposte ed evidenze.
5 scatti
NQ
Il benchmark NQ (Natural Questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di risposta alle domande reali.
pass@1
HumanEval
Il benchmark HumanEval testa le capacità di generazione del codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.
3 scatti
MBPP
Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione di base in Python, concentrandosi sui concetti di programmazione fondamentali e sull'utilizzo della libreria standard.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
* Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per informazioni dettagliate sul rendimento con altre metodologie.
Famiglia di modelli Gemma
Scopri i nostri strumenti
Guide rapide per gli sviluppatori
Guide rapide per i partner
Libro di ricette di Gemma
Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la creazione di didascalie delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con modelli Gemma ottimizzati.
Sviluppo di un'IA responsabile
Responsabilità by design
Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.
Valutazione solida e trasparente
Valutazioni complete e report trasparenti svelano le limitazioni del modello per adottare un approccio responsabile per ogni caso d'uso.
Favorire lo sviluppo responsabile
Il toolkit di IA generativa responsabile aiuta gli sviluppatori a progettare e implementare le best practice di IA responsabile.
Ottimizzato per Google Cloud
Con i modelli Gemma su Google Cloud, puoi personalizzare in modo approfondito il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione self-managed di GKE ed eseguirlo in un'infrastruttura ottimizzata per l'IA flessibile e conveniente.
Accelerare la ricerca accademica con i crediti Google Cloud
Il programma di ricerca accademica ha recentemente concluso il periodo di presentazione della domanda, assegnando crediti Google Cloud per supportare i ricercatori che si spingeranno oltre i confini della scoperta scientifica utilizzando i modelli di Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.
Unisciti alla community
Entra in contatto, esplora e condividi le tue conoscenze con altri membri della community dei modelli di ML.