Modelli aperti di Gemma

Una famiglia di modelli aperti, leggeri e all'avanguardia basati sulla stessa ricerca e tecnologia utilizzate per creare i modelli Gemini

Icona Responsabile per progettazione

Responsabile per definizione

Grazie all'integrazione di misure di sicurezza complete, questi modelli contribuiscono a garantire soluzioni di IA responsabili e affidabili tramite set di dati selezionati e ottimizzazioni rigorose.

Icona Rendimento senza precedenti

Rendimento senza pari in termini di dimensioni

I modelli Gemma ottengono risultati di benchmark eccezionali nelle dimensioni 2B, 7B, 9B e 27B, superando persino alcuni modelli aperti più grandi.

Framework flessibile

Framework flessibile

Con Keras 3.0, puoi usufruire di una compatibilità perfetta con JAX, TensorFlow e PyTorch, il che ti consente di scegliere e cambiare facilmente i framework in base alla tua attività.

Ti presentiamo
Gemma 2

Riprogettato per prestazioni straordinarie ed efficienza senza pari, Gemma 2 è ottimizzato per un'inferenza ultraveloce su diversi hardware.

5 scatti

MMLU

Il benchmark MMLU è un test che misura l'ampiezza delle conoscenze e la capacità di risoluzione dei problemi acquisite dai modelli linguistici di grandi dimensioni durante il preaddestramento.

25 colpi

ARC-C

Il benchmark ARC-c è un sottoinsieme più mirato del set di dati ARC-e, contenente solo domande a cui è stata data una risposta errata da algoritmi comuni (basati sul recupero e sulla cooccorrenza delle parole).

5 scatti

GSM8K

Il benchmark GSM8K verifica la capacità di un modello linguistico di risolvere problemi matematici a livello scolastico che spesso richiedono più passaggi di ragionamento.

3-5-colpi

AGIEval

Il benchmark AGIEval testa l'intelligence generale di un modello linguistico utilizzando domande derivate da esami del mondo reale progettati per valutare le capacità intellettuali umane.

3 foto, Lettino

BBH

Il benchmark BBH (BIG-Bench Hard) si concentra su attività ritenute al di là delle capacità degli attuali modelli linguistici, testandone i limiti in vari domini di ragionamento e comprensione.

3 foto, F1

RILASCIA

DROP è un benchmark di comprensione della lettura che richiede un ragionamento discreto sui paragrafi.

5 scatti

Winogrande

Il benchmark Winogrande testa la capacità di un modello linguistico di risolvere attività di completamento dei campi con opzioni binarie ambigue, che richiedono un ragionamento di buon senso generalizzato.

10 tiri

HellaSwag

Il benchmark HellaSwag mette alla prova la capacità di un modello linguistico di comprendere e applicare il ragionamento di buon senso selezionando la fine più logica di una storia.

4-colpi

MAT

MATH valuta la capacità di un modello linguistico di risolvere problemi matematici complessi con enunciato, che richiedono ragionamento, risoluzione di problemi a più passaggi e comprensione di concetti matematici.

Tiro 0

ARC-e

Il benchmark ARC-e verifica le competenze avanzate di risposta alle domande di un modello linguistico con domande scientifiche a scelta multipla a livello scolastico scolastico.

Tiro 0

PIQA

Il benchmark PIQA testa la capacità di un modello linguistico di comprendere e applicare le conoscenze fisiche del buon senso rispondendo a domande sulle interazioni fisiche quotidiane.

Tiro 0

QA

Il benchmark SIQA valuta la comprensione delle interazioni sociali e del buon senso sociale da parte di un modello linguistico ponendo domande sulle azioni delle persone e sulle loro implicazioni sociali.

Tiro 0

Boolq

Il benchmark BoolQ verifica la capacità di un modello linguistico di rispondere a domande di tipo sì/no che si verificano naturalmente, testando la capacità dei modelli di svolgere attività di inferenza del linguaggio naturale reali.

5 tiri

TriviaQA

Il benchmark TriviaQA valuta le competenze di comprensione della lettura con triplette di domande, risposte ed evidenze.

5 scatti

NQ

Il benchmark NQ (Natural Questions) testa la capacità di un modello linguistico di trovare e comprendere le risposte all'interno di interi articoli di Wikipedia, simulando scenari di risposta alle domande reali.

pass@1

HumanEval

Il benchmark HumanEval testa le capacità di generazione del codice di un modello linguistico valutando se le sue soluzioni superano i test delle unità funzionali per i problemi di programmazione.

3 scatti

MBPP

Il benchmark MBPP testa la capacità di un modello linguistico di risolvere problemi di programmazione di base in Python, concentrandosi sui concetti di programmazione fondamentali e sull'utilizzo della libreria standard.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 MLD

42,3

Gemma 2

2,6 MLD

51,3

Mistral

7 MLD

62,5

LLAMA 3

8 Mld

66,6

Gemma 1

7 MLD

64,4

Gemma 2

Oltre 9 miliardi

71,3

Gemma 2

27 MLD

75,2

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

55,4

Mistral

7 miliardi

60.5

LLAMA 3

8 miliardi

59,2

Gemma 1

7 miliardi

61.1

Gemma 2

Oltre 9 miliardi

68,4

Gemma 2

27 MLD

71,4

Gemma 1

2,5 MLD

15.1

Gemma 2

2,6 MLD

23,9

Mistral

7 MLD

39,6

LLAMA 3

8 Mld

45,7

Gemma 1

7 MLD

51,8

Gemma 2

Oltre 9 miliardi

68,6

Gemma 2

27 MLD

74,0

Gemma 1

2,5 MLD

24,2

Gemma 2

2,6 MLD

30,6

Mistral

7 miliardi

44,0

LLAMA 3

8 Mld

45,9

Gemma 1

7 MLD

44,9

Gemma 2

Oltre 9 miliardi

52,8

Gemma 2

27 MLD

55,1

Gemma 1

2,5 miliardi

35,2

Gemma 2

2,6 MLD

41,9

Mistral

7 MLD

56,0

LLAMA 3

8 Mld

61.1

Gemma 1

7 miliardi

59,0

Gemma 2

Oltre 9 miliardi

68,2

Gemma 2

27 MLD

74,9

Gemma 1

2,5 MLD

48,5

Gemma 2

2,6 MLD

52,0

Mistral

7 MLD

63,8

LLAMA 3

8 miliardi

58,4

Gemma 1

7 miliardi

56,3

Gemma 2

Oltre 9 miliardi

69,4

Gemma 2

27 MLD

74,2

Gemma 1

2,5 MLD

66,8

Gemma 2

2,6 MLD

70,9

Mistral

7 MLD

78,5

LLAMA 3

8 Mld

76,1

Gemma 1

7 miliardi

79,0

Gemma 2

Oltre 9 miliardi

80,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

71,7

Gemma 2

2,6 MLD

73,0

Mistral

7 MLD

83,0

LLAMA 3

8 Mld

82,0

Gemma 1

7 MLD

82,3

Gemma 2

Oltre 9 miliardi

81,9

Gemma 2

27 MLD

86,4

Gemma 1

2,5 miliardi

11,8

Gemma 2

2,6 MLD

15,0

Mistral

7 miliardi

12,7

Gemma 1

7 miliardi

24,3

Gemma 2

Oltre 9 miliardi

36,6

Gemma 2

27 MLD

42,3

Gemma 1

2,5 MLD

73,2

Gemma 2

2,6 MLD

80,1

Mistral

7 MLD

80,5

Gemma 1

7 MLD

81,5

Gemma 2

Oltre 9 miliardi

88,0

Gemma 2

27 MLD

88,6

Gemma 1

2,5 miliardi

77,3

Gemma 2

2,6 MLD

77,8

Mistral

7 MLD

82,2

Gemma 1

7 miliardi

81,2

Gemma 2

Oltre 9 miliardi

81,7

Gemma 2

27 MLD

83,2

Gemma 1

2,5 MLD

49,7

Gemma 2

2,6 MLD

51,9

Mistral

7 MLD

47,0

Gemma 1

7 MLD

51,8

Gemma 2

Oltre 9 miliardi

53,4

Gemma 2

27 MLD

53,7

Gemma 1

2,5 MLD

69,4

Gemma 2

2,6 MLD

72,5

Mistral

7 MLD

83,2

Gemma 1

7 MLD

83,2

Gemma 2

Oltre 9 miliardi

84,2

Gemma 2

27 MLD

84,8

Gemma 1

2,5 miliardi

53,2

Gemma 2

2,6 MLD

59,4

Mistral

7 MLD

62,5

Gemma 1

7 MLD

63,4

Gemma 2

Oltre 9 miliardi

76,6

Gemma 2

27 MLD

83,7

Gemma 1

2,5 MLD

12,5

Gemma 2

2,6 MLD

16,7

Mistral

7 miliardi

23.2

Gemma 1

7 miliardi

23,0

Gemma 2

Oltre 9 miliardi

29,2

Gemma 2

27 MLD

34,50

Gemma 1

2,5 MLD

22.0

Gemma 2

2,6 MLD

17,7

Mistral

7 miliardi

26,2

Gemma 1

7 MLD

32,3

Gemma 2

Oltre 9 miliardi

40,2

Gemma 2

27 MLD

51,8

Gemma 1

2,5 miliardi

29,2

Gemma 2

2,6 MLD

29,6

Mistral

7 MLD

40,2

Gemma 1

7 MLD

44,4

Gemma 2

Oltre 9 miliardi

52,4

Gemma 2

27 MLD

62,6

* Questi sono i benchmark per i modelli preaddestrati. Consulta il report tecnico per informazioni dettagliate sul rendimento con altre metodologie.

Famiglia di modelli Gemma

Nuova uscita

Gemma 2

Gemma 2 offre tre nuovi modelli potenti ed efficienti disponibili in dimensioni di parametri di 2, 9 e 27 miliardi, tutti con miglioramenti di sicurezza integrati.

Nuova uscita

DataGemma

DataGemma sono i primi modelli aperti progettati per collegare gli LLM a vasti dati reali tratti dal Data Commons di Google.

Gemma 1

I modelli Gemma sono modelli linguistici di grandi dimensioni leggeri, da testo a testo e solo decoder, addestrati su un enorme set di dati di testo, codice e contenuti matematici per una varietà di attività di elaborazione del linguaggio naturale.

RecurrentGemma

RecurrentGemma è un modello tecnicamente distinto che sfrutta le reti neurali ricorrenti e l'attenzione locale per migliorare l'efficienza della memoria.

PaliGemma

PaliGemma è un modello di visione e linguaggio aperto ispirato a PaLI-3, che sfrutta SigLIP e Gemma. È progettato come un modello versatile per il trasferimento a una vasta gamma di attività di visione e linguaggio.

CodeGemma

Sfruttando le basi dei nostri modelli Gemma pre-addestrati originali, CodeGemma offre potenti funzionalità di completamento e generazione del codice in dimensioni adatte al tuo computer locale.

Guide rapide per gli sviluppatori

Libro di ricette di Gemma

Esplora una raccolta di ricette ed esempi pratici che mostrano la potenza e la versatilità di Gemma per attività come la creazione di didascalie delle immagini con PaliGemma, la generazione di codice con CodeGemma e la creazione di chatbot con modelli Gemma ottimizzati.

Sviluppo di un'IA responsabile

Responsabilità by design

Preaddestrati su dati attentamente selezionati e ottimizzati per la sicurezza in alto, contribuendo a potenziare lo sviluppo di un'IA sicura e responsabile basata sui modelli Gemma.

Valutazione solida e trasparente

Valutazioni complete e report trasparenti svelano le limitazioni del modello per adottare un approccio responsabile per ogni caso d'uso.

Favorire lo sviluppo responsabile

Il toolkit di IA generativa responsabile aiuta gli sviluppatori a progettare e implementare le best practice di IA responsabile.

Icona Google Cloud

Ottimizzato per Google Cloud

Con i modelli Gemma su Google Cloud, puoi personalizzare in modo approfondito il modello in base alle tue esigenze specifiche con gli strumenti completamente gestiti di Vertex AI o l'opzione self-managed di GKE ed eseguirlo in un'infrastruttura ottimizzata per l'IA flessibile e conveniente.

Accelerare la ricerca accademica con i crediti Google Cloud

Il programma di ricerca accademica ha recentemente concluso il periodo di presentazione della domanda, assegnando crediti Google Cloud per supportare i ricercatori che si spingeranno oltre i confini della scoperta scientifica utilizzando i modelli di Gemma. Siamo entusiasti di vedere la rivoluzionaria ricerca che emerge da questa iniziativa.

Continua a seguirci per non perderti le opportunità future per migliorare la tua ricerca con Google Cloud.

Unisciti alla community

Entra in contatto, esplora e condividi le tue conoscenze con altri membri della community dei modelli di ML.