Modelli Gemma Open
Una famiglia di modelli aperti, leggeri e all'avanguardia basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini
Ti presentiamo
Gemma 2
Riprogettata per prestazioni straordinarie ed efficienza ineguagliabile, Gemma 2 ottimizza l'inferenza ultraveloce su hardware diversificato.
5 tiri
MMLU
Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.
25 colpi
ARC-C
Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande risposte in modo errato da algoritmi comuni (base di recupero e co-occorrenza di parole).
5 tiri
GSM8K
Il benchmark GSM8K verifica la capacità di un modello linguistico di risolvere problemi matematici a livello scolastico che spesso richiedono più passaggi di ragionamento.
3-5-colpi
AGIEval
Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.
3 foto, lettino per bambini
BBH
Il benchmark BBH (BIG-Bench Hard) si concentra sulle attività considerate al di là delle capacità degli attuali modelli linguistici, testando i loro limiti in vari ambiti di ragionamento e comprensione.
3 tiri, F1
RILASCIA
DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto su paragrafi.
5 tiri
Winogrande
Il benchmark di Winogrande verifica la capacità di un modello linguistico di risolvere attività ambigue di compilazione del vuoto con opzioni binarie, richiedendo un ragionamento generalizzato del buon senso.
10 tiri
HellaSwag
Il benchmark HellaSwag mette in dubbio la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando il finale più logico di una storia.
4-colpi
MAT
MATH valuta la capacità di un modello linguistico di risolvere problemi complessi con parole matematiche, richiedendo ragionamento, risoluzione di problemi in più fasi e la comprensione di concetti matematici.
Tiro 0
ARC-e
Il benchmark ARC-e verifica le competenze avanzate di risposta alle domande di un modello linguistico con domande scientifiche a scelta multipla a livello scolastico scolastico.
Tiro 0
PIQA
Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare le conoscenze fisiche del buon senso rispondendo a domande sulle interazioni fisiche quotidiane.
Tiro 0
SIQA
Il benchmark SIQA valuta la comprensione delle interazioni e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.
Tiro 0
Boolq
Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande sì/no naturali, testando la capacità del modello di eseguire attività di inferenza del linguaggio naturale nel mondo reale.
5 tiri
TriviaQA
Il benchmark TriviaQA testa le capacità di comprensione con tripli di domande-risposta e prove.
5 tiri
NQ
Il benchmark NQ (Natural questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di question-answering del mondo reale.
pass@1
HumanEval
Il benchmark HumanEval testa le capacità di generazione del codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.
3 foto
MBPP
Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione Python di base, concentrandosi sui concetti fondamentali della programmazione e sull'utilizzo delle librerie standard.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
*Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per i dettagli sulle prestazioni con altre metodologie.
Famiglia di modelli Gemma
Scopri i nostri strumenti
Guide rapide per gli sviluppatori
Guide rapide per i partner
Libro di ricette di Gemma
Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la creazione di didascalie delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con modelli Gemma ottimizzati.
Sviluppo di un'IA responsabile
Responsabilità per progettazione
Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.
Valutazione solida e trasparente
Valutazioni complete e report trasparenti rivelano i limiti del modello per adottare un approccio responsabile per ogni caso d'uso.
Favorire uno sviluppo responsabile
Il toolkit per l'IA generativa responsabile aiuta gli sviluppatori a progettare e implementare best practice per l'IA responsabile.
Ottimizzato per Google Cloud
Con i modelli Gemma su Google Cloud, puoi personalizzare profondamente il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione autogestita di GKE ed eseguirne il deployment su un'infrastruttura flessibile ed economica ottimizzata per l'IA.
Accelerare la ricerca accademica con i crediti Google Cloud
Il programma di ricerca accademica ha recentemente concluso il periodo di presentazione della domanda, assegnando crediti Google Cloud per supportare i ricercatori che si spingeranno oltre i confini della scoperta scientifica utilizzando i modelli Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.
Unisciti alla community
Connettiti, esplora e condividi le tue conoscenze con gli altri nella community dei modelli ML.