Modelli Gemma Open

Una famiglia di modelli aperti leggeri e all'avanguardia creati sulla base della stessa ricerca e tecnologia utilizzata per creare i modelli Gemini

Icona Responsabile per progettazione

Responsabile per definizione

Grazie all'integrazione di misure di sicurezza complete, questi modelli contribuiscono a garantire soluzioni di IA responsabili e affidabili tramite set di dati selezionati e ottimizzazioni rigorose.

Icona Rendimento senza precedenti

Prestazioni ineguagliabili per le dimensioni

I modelli Gemma ottengono risultati di benchmark eccezionali nelle dimensioni 2B, 7B, 9B e 27B, superando persino alcuni modelli aperti più grandi.

Framework flessibile

Framework flessibile

Con Keras 3.0, puoi usufruire di una compatibilità perfetta con JAX, TensorFlow e PyTorch, il che ti consente di scegliere e cambiare facilmente i framework in base alla tua attività.

Ti presentiamo
Gemma 2

Riprogettata per prestazioni straordinarie ed efficienza ineguagliabile, Gemma 2 ottimizza l'inferenza ultraveloce su hardware diversificato.

5 scatti

MMLU

Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.

25 scatti

ARC-C

Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande a cui è stata data una risposta errata da algoritmi comuni (basati sul recupero e sulla cooccorrenza delle parole).

5 scatti

GSM8K

Il benchmark GSM8K testa la capacità di un modello linguistico di risolvere problemi matematici di livello scolastico che spesso richiedono più passaggi di ragionamento.

3-5-colpi

AGIEval

Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.

3 foto, Lettino

BBH

Il benchmark BBH (BIG-Bench Hard) si concentra su attività ritenute al di là delle capacità degli attuali modelli linguistici, testandone i limiti in vari domini di ragionamento e comprensione.

3 tiri, F1

RILASCIA

DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto sui paragrafi.

5 tiri

Winogrande

Il benchmark Winogrande testa la capacità di un modello linguistico di risolvere attività di completamento dei campi con opzioni binarie ambigue, che richiedono un ragionamento di buon senso generalizzato.

10 scatti

HellaSwag

Il benchmark HellaSwag mette in dubbio la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando il finale più logico di una storia.

4-colpi

MATH

MATH valuta la capacità di un modello linguistico di risolvere problemi con enunciato matematico complessi, che richiedono ragionamento, risoluzione di problemi a più passaggi e comprensione di concetti matematici.

Zero-shot

ARC-e

Il benchmark ARC-e verifica le capacità avanzate di risposta alle domande di un modello linguistico con domande di scienza a scelta multipla autentiche a livello di scuola elementare.

Tiro 0

PIQA

Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare la conoscenza fisica di buon senso rispondendo a domande sulle interazioni fisiche quotidiane.

Zero-shot

SIQA

Il benchmark SIQA valuta la comprensione delle interazioni sociali e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.

Zero-shot

Boolq

Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande sì/no naturali, testando la capacità del modello di eseguire attività di inferenza del linguaggio naturale nel mondo reale.

5 tiri

TriviaQA

Il benchmark TriviaQA valuta le competenze di comprensione della lettura con triplette di domande, risposte ed evidenze.

5 scatti

NQ

Il benchmark NQ (Natural Questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di risposta alle domande reali.

pass@1

HumanEval

Il benchmark HumanEval testa le capacità di generazione di codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.

3 scatti

MBPP

Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione di base in Python, concentrandosi sui concetti di programmazione fondamentali e sull'utilizzo della libreria standard.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 miliardi

42,3

Gemma 2

2,6 MLD

51,3

Mistral

7 miliardi

62,5

LLAMA 3

8 miliardi

66,6

Gemma 1

7 miliardi

64,4

Gemma 2

Oltre 9 miliardi

71,3

Gemma 2

27 mld

75,2

Gemma 1

2,5 miliardi

48,5

Gemma 2

2,6 MLD

55,4

Mistral

7 miliardi

60.5

LLAMA 3

8 miliardi

59,2

Gemma 1

7 MLD

61,1

Gemma 2

Oltre 9 miliardi

68,4

Gemma 2

27 mld

71,4

Gemma 1

2,5 MLD

15.1

Gemma 2

2,6 MLD

23,9

Mistral

7 miliardi

39,6

LLAMA 3

8 miliardi

45,7

Gemma 1

7 miliardi

51,8

Gemma 2

Oltre 9 miliardi

68,6

Gemma 2

27 mld

74,0

Gemma 1

2,5 miliardi

24,2

Gemma 2

2,6 MLD

30,6

Mistral

7 miliardi

44,0

LLAMA 3

8 miliardi

45,9

Gemma 1

7 miliardi

44,9

Gemma 2

Oltre 9 miliardi

52,8

Gemma 2

27 mld

55.1

Gemma 1

2,5 miliardi

35,2

Gemma 2

2,6 MLD

41,9

Mistral

7 miliardi

56,0

LLAMA 3

8 miliardi

61.1

Gemma 1

7 miliardi

59,0

Gemma 2

Oltre 9 miliardi

68,2

Gemma 2

27 mld

74,9

Gemma 1

2,5 miliardi

48,5

Gemma 2

2,6 MLD

52,0

Mistral

7 miliardi

63,8

LLAMA 3

8 Mld

58,4

Gemma 1

7 MLD

56,3

Gemma 2

Oltre 9 miliardi

69,4

Gemma 2

27 mld

74,2

Gemma 1

2,5 MLD

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 miliardi

78,5

LLAMA 3

8 miliardi

76,1

Gemma 1

7 miliardi

79,0

Gemma 2

Oltre 9 miliardi

80,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 miliardi

71,7

Gemma 2

2,6 MLD

73,0

Mistral

7 miliardi

83,0

LLAMA 3

8 miliardi

82,0

Gemma 1

7 miliardi

82,3

Gemma 2

Oltre 9 miliardi

81,9

Gemma 2

27 mld

86,4

Gemma 1

2,5 miliardi

11,8

Gemma 2

2,6 MLD

15,0

Mistral

7 miliardi

12,7

Gemma 1

7 MLD

24,3

Gemma 2

Oltre 9 miliardi

36,6

Gemma 2

27 mld

42,3

Gemma 1

2,5 miliardi

73,2

Gemma 2

2,6 MLD

80,1

Mistral

7 miliardi

80,5

Gemma 1

7 miliardi

81,5

Gemma 2

Oltre 9 miliardi

88,0

Gemma 2

27 mld

88,6

Gemma 1

2,5 MLD

77,3

Gemma 2

2,6 MLD

77,8

Mistral

7 MLD

82,2

Gemma 1

7 MLD

81,2

Gemma 2

Oltre 9 miliardi

81,7

Gemma 2

27 mld

83,2

Gemma 1

2,5 miliardi

49,7

Gemma 2

2,6 MLD

51,9

Mistral

7 MLD

47,0

Gemma 1

7 miliardi

51,8

Gemma 2

Oltre 9 miliardi

53,4

Gemma 2

27 MLD

53,7

Gemma 1

2,5 miliardi

69,4

Gemma 2

2,6 MLD

72,5

Mistral

7 miliardi

83,2

Gemma 1

7 miliardi

83,2

Gemma 2

Oltre 9 miliardi

84,2

Gemma 2

27 mld

84,8

Gemma 1

2,5 miliardi

53,2

Gemma 2

2,6 MLD

59,4

Mistral

7 miliardi

62,5

Gemma 1

7 miliardi

63,4

Gemma 2

Oltre 9 miliardi

76,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 miliardi

12,5

Gemma 2

2,6 MLD

16,7

Mistral

7 miliardi

23.2

Gemma 1

7 miliardi

23,0

Gemma 2

Oltre 9 miliardi

29,2

Gemma 2

27 MLD

34,5

Gemma 1

2,5 MLD

22.0

Gemma 2

2,6 MLD

17,7

Mistral

7 MLD

26,2

Gemma 1

7 miliardi

32,3

Gemma 2

Oltre 9 miliardi

40,2

Gemma 2

27 mld

51,8

Gemma 1

2,5 miliardi

29,2

Gemma 2

2,6 MLD

29,6

Mistral

7 miliardi

40,2

Gemma 1

7 MLD

44,4

Gemma 2

Oltre 9 miliardi

52,4

Gemma 2

27 mld

62,6

*Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per dettagli sulle prestazioni con altre metodologie.

Famiglia di modelli Gemma

Nuova release

Gemma 2

Gemma 2 offre tre nuovi modelli potenti ed efficienti disponibili in dimensioni di parametri di 2, 9 e 27 miliardi, tutti con miglioramenti di sicurezza integrati.

Nuova release

DataGemma

DataGemma sono i primi modelli aperti progettati per collegare gli LLM a vasti dati reali tratti dal Data Commons di Google.

Gemma 1

I modelli Gemma sono modelli linguistici di grandi dimensioni leggeri, di tipo text-to-text e solo decodificatore, addestrati su un enorme set di dati di testo, codice e contenuti matematici per una serie di attività di elaborazione del linguaggio naturale.

RecurrentGemma

RecurrentGemma è un modello tecnicamente distinto che sfrutta le reti neurali ricorrenti e l'attenzione locale per migliorare l'efficienza della memoria.

PaliGemma

PaliGemma è un modello di linguaggio di visione aperto ispirato a PaLI-3, che sfrutta SigLIP e Gemma, progettato come modello versatile per il trasferimento a una vasta gamma di attività basate su linguaggio di visione artificiale.

CodeGemma

Sfruttando le basi dei nostri modelli Gemma preaddestrati originali, CodeGemma offre potenti funzionalità di generazione e completamento del codice in dimensioni adatte al computer locale.

Guide rapide per gli sviluppatori

Gemma Cookbook

Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la sottotitolazione delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con i modelli Gemma ottimizzati.

Sviluppo di un'IA responsabile

Responsabilità by design

Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.

Valutazione solida e trasparente

Valutazioni complete e report trasparenti svelano le limitazioni del modello per adottare un approccio responsabile per ogni caso d'uso.

Favorire uno sviluppo responsabile

Il toolkit per l'IA generativa responsabile aiuta gli sviluppatori a progettare e implementare best practice per l'IA responsabile.

Icona Google Cloud

Ottimizzato per Google Cloud

Con i modelli Gemma su Google Cloud, puoi personalizzare in modo approfondito il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione self-managed di GKE ed eseguirlo in un'infrastruttura ottimizzata per l'IA flessibile e conveniente.

Accelerare la ricerca accademica con i crediti Google Cloud

Di recente, il programma di ricerca accademica ha concluso il periodo di richiesta, assegnando crediti Google Cloud per supportare i ricercatori che spingono i confini della scoperta scientifica utilizzando i modelli Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.

Continua a seguirci per non perderti le opportunità future per far progredire la tua ricerca con Google Cloud.

Unisciti alla community

Connettiti, esplora e condividi le tue conoscenze con gli altri nella community dei modelli ML.