Modelli Gemma Open

Una famiglia di modelli aperti, leggeri e all'avanguardia basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini

Icona Responsabile per progettazione

Responsabile per definizione

Incorporando misure di sicurezza complete, questi modelli aiutano a garantire soluzioni IA responsabili e affidabili attraverso set di dati selezionati e ottimizzazioni rigorose.

Icona di rendimento senza corrispondenza

Prestazioni ineguagliabili per le dimensioni

I modelli Gemma ottengono risultati di benchmark eccezionali nelle dimensioni 2B, 7B, 9B e 27B, superando persino alcuni modelli aperti più grandi.

Framework flessibile

Framework flessibile

Keras 3.0 è compatibile con JAX, TensorFlow e PyTorch e consente di scegliere e cambiare facilmente i framework a seconda dell'attività.

Ti presentiamo
Gemma 2

Riprogettata per prestazioni straordinarie ed efficienza ineguagliabile, Gemma 2 ottimizza l'inferenza ultraveloce su hardware diversificato.

5 tiri

MMLU

Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.

25 colpi

ARC-C

Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande risposte in modo errato da algoritmi comuni (base di recupero e co-occorrenza di parole).

5 tiri

GSM8K

Il benchmark GSM8K verifica la capacità di un modello linguistico di risolvere problemi matematici a livello scolastico che spesso richiedono più passaggi di ragionamento.

3-5-colpi

AGIEval

Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.

3 foto, lettino per bambini

BBH

Il benchmark BBH (BIG-Bench Hard) si concentra sulle attività considerate al di là delle capacità degli attuali modelli linguistici, testando i loro limiti in vari ambiti di ragionamento e comprensione.

3 tiri, F1

RILASCIA

DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto su paragrafi.

5 tiri

Winogrande

Il benchmark di Winogrande verifica la capacità di un modello linguistico di risolvere attività ambigue di compilazione del vuoto con opzioni binarie, richiedendo un ragionamento generalizzato del buon senso.

10 tiri

HellaSwag

Il benchmark HellaSwag mette in dubbio la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando il finale più logico di una storia.

4-colpi

MAT

MATH valuta la capacità di un modello linguistico di risolvere problemi complessi con parole matematiche, richiedendo ragionamento, risoluzione di problemi in più fasi e la comprensione di concetti matematici.

Tiro 0

ARC-e

Il benchmark ARC-e verifica le competenze avanzate di risposta alle domande di un modello linguistico con domande scientifiche a scelta multipla a livello scolastico scolastico.

Tiro 0

PIQA

Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare le conoscenze fisiche del buon senso rispondendo a domande sulle interazioni fisiche quotidiane.

Tiro 0

SIQA

Il benchmark SIQA valuta la comprensione delle interazioni e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.

Tiro 0

Boolq

Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande sì/no naturali, testando la capacità del modello di eseguire attività di inferenza del linguaggio naturale nel mondo reale.

5 tiri

TriviaQA

Il benchmark TriviaQA testa le capacità di comprensione con tripli di domande-risposta e prove.

5 tiri

NQ

Il benchmark NQ (Natural questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di question-answering del mondo reale.

pass@1

HumanEval

Il benchmark HumanEval testa le capacità di generazione del codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.

3 foto

MBPP

Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione Python di base, concentrandosi sui concetti fondamentali della programmazione e sull'utilizzo delle librerie standard.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 MLD

42,3

Gemma 2

2,6 MLD

51,3

Mistral

7 MLD

62,5

LLAMA 3

8 Mld

66,6

Gemma 1

7 MLD

64,4

Gemma 2

Oltre 9 miliardi

71,3

Gemma 2

27 MLD

75,2

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

55,4

Mistral

7 MLD

60.5

LLAMA 3

8 Mld

59,2

Gemma 1

7 MLD

61,1

Gemma 2

Oltre 9 miliardi

68,4

Gemma 2

27 MLD

71,4

Gemma 1

2,5 MLD

15.1

Gemma 2

2,6 MLD

23,9

Mistral

7 MLD

39,6

LLAMA 3

8 Mld

45,7

Gemma 1

7 MLD

51,8

Gemma 2

Oltre 9 miliardi

68,6

Gemma 2

27 MLD

74,0

Gemma 1

2,5 MLD

24,2

Gemma 2

2,6 MLD

30,6

Mistral

7 MLD

44,0

LLAMA 3

8 Mld

45,9

Gemma 1

7 MLD

44,9

Gemma 2

Oltre 9 miliardi

52,8

Gemma 2

27 MLD

55,1

Gemma 1

2,5 MLD

35,2

Gemma 2

2,6 MLD

41,9

Mistral

7 MLD

56,0

LLAMA 3

8 Mld

61,1

Gemma 1

7 MLD

59,0

Gemma 2

Oltre 9 miliardi

68,2

Gemma 2

27 MLD

74,9

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

52,0

Mistral

7 MLD

63,8

LLAMA 3

8 Mld

58,4

Gemma 1

7 MLD

56,3

Gemma 2

Oltre 9 miliardi

69,4

Gemma 2

27 MLD

74,2

Gemma 1

2,5 MLD

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 MLD

78,5

LLAMA 3

8 Mld

76,1

Gemma 1

7 MLD

79,0

Gemma 2

Oltre 9 miliardi

80,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

71,7

Gemma 2

2,6 MLD

73,0

Mistral

7 MLD

83,0

LLAMA 3

8 Mld

82,0

Gemma 1

7 MLD

82,3

Gemma 2

Oltre 9 miliardi

81,9

Gemma 2

27 MLD

86,4

Gemma 1

2,5 MLD

11,8

Gemma 2

2,6 MLD

15,0

Mistral

7 MLD

12,7

Gemma 1

7 MLD

24,3

Gemma 2

Oltre 9 miliardi

36,6

Gemma 2

27 MLD

42,3

Gemma 1

2,5 MLD

73,2

Gemma 2

2,6 MLD

80,1

Mistral

7 MLD

80,5

Gemma 1

7 MLD

81,5

Gemma 2

Oltre 9 miliardi

88,0

Gemma 2

27 MLD

88,6

Gemma 1

2,5 MLD

77,3

Gemma 2

2,6 MLD

77,8

Mistral

7 MLD

82,2

Gemma 1

7 MLD

81,2

Gemma 2

Oltre 9 miliardi

81,7

Gemma 2

27 MLD

83,2

Gemma 1

2,5 MLD

49,7

Gemma 2

2,6 MLD

51,9

Mistral

7 MLD

47,0

Gemma 1

7 MLD

51,8

Gemma 2

Oltre 9 miliardi

53,4

Gemma 2

27 MLD

53,7

Gemma 1

2,5 MLD

69,4

Gemma 2

2,6 MLD

72,5

Mistral

7 MLD

83,2

Gemma 1

7 MLD

83,2

Gemma 2

Oltre 9 miliardi

84,2

Gemma 2

27 MLD

84,8

Gemma 1

2,5 MLD

53,2

Gemma 2

2,6 MLD

59,4

Mistral

7 MLD

62,5

Gemma 1

7 MLD

63,4

Gemma 2

Oltre 9 miliardi

76,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

12,5

Gemma 2

2,6 MLD

16,7

Mistral

7 MLD

23.2

Gemma 1

7 MLD

23,0

Gemma 2

Oltre 9 miliardi

29,2

Gemma 2

27 MLD

34,5

Gemma 1

2,5 MLD

22.0

Gemma 2

2,6 MLD

17,7

Mistral

7 MLD

26,2

Gemma 1

7 MLD

32,3

Gemma 2

Oltre 9 miliardi

40,2

Gemma 2

27 MLD

51,8

Gemma 1

2,5 MLD

29,2

Gemma 2

2,6 MLD

29,6

Mistral

7 MLD

40,2

Gemma 1

7 MLD

44,4

Gemma 2

Oltre 9 miliardi

52,4

Gemma 2

27 MLD

62,6

*Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per i dettagli sulle prestazioni con altre metodologie.

Guide rapide per gli sviluppatori

Libro di ricette di Gemma

Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la creazione di didascalie delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con modelli Gemma ottimizzati.

Sviluppo di un'IA responsabile

Responsabilità per progettazione

Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.

Valutazione solida e trasparente

Valutazioni complete e report trasparenti rivelano i limiti del modello per adottare un approccio responsabile per ogni caso d'uso.

Favorire uno sviluppo responsabile

Il toolkit per l'IA generativa responsabile aiuta gli sviluppatori a progettare e implementare best practice per l'IA responsabile.

Icona Google Cloud

Ottimizzato per Google Cloud

Con i modelli Gemma su Google Cloud, puoi personalizzare profondamente il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione autogestita di GKE ed eseguirne il deployment su un'infrastruttura flessibile ed economica ottimizzata per l'IA.

Accelerare la ricerca accademica con i crediti Google Cloud

Il programma di ricerca accademica ha recentemente concluso il periodo di presentazione della domanda, assegnando crediti Google Cloud per supportare i ricercatori che si spingeranno oltre i confini della scoperta scientifica utilizzando i modelli Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.

Continua a seguirci per non perderti le opportunità future per migliorare la tua ricerca con Google Cloud.

Unisciti alla community

Connettiti, esplora e condividi le tue conoscenze con gli altri nella community dei modelli ML.