Modelli Gemma Open
Una famiglia di modelli aperti leggeri e all'avanguardia creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini
Ti presentiamo
Gemma 2
Riprogettata per prestazioni straordinarie ed efficienza ineguagliabile, Gemma 2 ottimizza l'inferenza ultraveloce su hardware diversificato.
5 scatti
MMLU
Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.
25 scatti
ARC-C
Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande a cui è stata data una risposta errata da algoritmi comuni (basati sul recupero e sulla cooccorrenza delle parole).
5 scatti
GSM8K
Il benchmark GSM8K testa la capacità di un modello linguistico di risolvere problemi matematici di livello scolastico che spesso richiedono più passaggi di ragionamento.
3-5-colpi
AGIEval
Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.
3 foto, Lettino
BBH
Il benchmark BBH (BIG-Bench Hard) si concentra su attività ritenute al di là delle capacità degli attuali modelli linguistici, testandone i limiti in vari domini di ragionamento e comprensione.
3 tiri, F1
RILASCIA
DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto sui paragrafi.
5 tiri
Winogrande
Il benchmark Winogrande testa la capacità di un modello linguistico di risolvere attività di completamento dei campi con opzioni binarie ambigue, che richiedono un ragionamento di buon senso generalizzato.
10 scatti
HellaSwag
Il benchmark HellaSwag mette in dubbio la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando il finale più logico di una storia.
4-colpi
MATH
MATH valuta la capacità di un modello linguistico di risolvere problemi con enunciato matematico complessi, che richiedono ragionamento, risoluzione di problemi a più passaggi e comprensione di concetti matematici.
Zero-shot
ARC-e
Il benchmark ARC-e verifica le capacità avanzate di risposta alle domande di un modello linguistico con domande di scienza a scelta multipla autentiche a livello di scuola elementare.
Tiro 0
PIQA
Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare la conoscenza fisica di buon senso rispondendo a domande sulle interazioni fisiche quotidiane.
Zero-shot
SIQA
Il benchmark SIQA valuta la comprensione delle interazioni sociali e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.
Zero-shot
Boolq
Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande sì/no naturali, testando la capacità del modello di eseguire attività di inferenza del linguaggio naturale nel mondo reale.
5 tiri
TriviaQA
Il benchmark TriviaQA valuta le competenze di comprensione della lettura con triplette di domande, risposte ed evidenze.
5 scatti
NQ
Il benchmark NQ (Natural Questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di risposta alle domande reali.
pass@1
HumanEval
Il benchmark HumanEval testa le capacità di generazione di codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.
3 scatti
MBPP
Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione di base in Python, concentrandosi sui concetti di programmazione fondamentali e sull'utilizzo della libreria standard.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 Mld
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
LLAMA 3
8 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 MLD
Gemma 1
2,5 MLD
Gemma 2
2,6 MLD
Mistral
7 MLD
Gemma 1
7 miliardi
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
Gemma 1
2,5 miliardi
Gemma 2
2,6 MLD
Mistral
7 miliardi
Gemma 1
7 MLD
Gemma 2
Oltre 9 miliardi
Gemma 2
27 mld
*Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per dettagli sulle prestazioni con altre metodologie.
Famiglia di modelli Gemma
Esplora i nostri strumenti
Guide rapide per gli sviluppatori
Guide rapide per i partner
Gemma Cookbook
Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la sottotitolazione delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con i modelli Gemma ottimizzati.
Sviluppo di un'IA responsabile
Responsabilità by design
Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.
Valutazione solida e trasparente
Valutazioni complete e report trasparenti svelano le limitazioni del modello per adottare un approccio responsabile per ogni caso d'uso.
Favorire uno sviluppo responsabile
Il toolkit per l'IA generativa responsabile aiuta gli sviluppatori a progettare e implementare best practice per l'IA responsabile.
Ottimizzato per Google Cloud
Con i modelli Gemma su Google Cloud, puoi personalizzare in modo approfondito il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione self-managed di GKE ed eseguirlo in un'infrastruttura ottimizzata per l'IA flessibile e conveniente.
Accelerare la ricerca accademica con i crediti Google Cloud
Di recente, il programma di ricerca accademica ha concluso il periodo di richiesta, assegnando crediti Google Cloud per supportare i ricercatori che spingono i confini della scoperta scientifica utilizzando i modelli Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.
Unisciti alla community
Connettiti, esplora e condividi le tue conoscenze con gli altri nella community dei modelli ML.