Modelos abertos do Gemma

Uma família de modelos abertos leves e de última geração criados com a mesma pesquisa e tecnologia usadas para criar os modelos do Gemini

Ícone "Responsabilidade desde a concepção"

Responsabilidade incorporada ao design

Esses modelos incorporam medidas de segurança abrangentes e ajudam a garantir soluções de IA responsáveis e confiáveis com conjuntos de dados selecionados e ajustes rigorosos.

Ícone de performance não correspondente

Desempenho incomparável

Os modelos Gemma alcançam resultados de comparação excepcionais nos tamanhos 2B, 7B, 9B e 27B, superando até mesmo alguns modelos abertos maiores.

Framework flexível

Implantação flexível

Implante de forma integrada em dispositivos móveis, na Web e na nuvem usando Keras, JAX, MediaPipe, PyTorch, Hugging Face e muito mais.

Teste o Gemma 2

O Gemma 2 foi redesenhado para ter um desempenho superior e uma eficiência incomparável, otimizando a inferência em diversos hardwares.

5 fotos

MMLU

O comparativo de mercado MMLU é um teste que mede a amplitude do conhecimento e a capacidade de resolução de problemas adquirida por modelos de linguagem grandes durante o pré-treinamento.

25 fotos

ARC-C

O comparativo ARC-c é um subconjunto mais focado do conjunto de dados ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e co-ocorrência de palavras).

5 fotos

GSM8K

O comparativo GSM8K testa a capacidade de um modelo de linguagem de resolver problemas de matemática do ensino fundamental que geralmente exigem várias etapas de raciocínio.

3 a 5 tiros

AGIEval

O comparativo AGIEval testa a inteligência geral de um modelo de linguagem usando perguntas derivadas de exames reais projetados para avaliar as habilidades intelectuais humanas.

3-shot, CoT

BBH

O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das habilidades dos modelos de linguagem atuais, testando os limites deles em vários domínios de raciocínio e compreensão.

3 fotos, F1

SOLTAR

O DROP é um comparativo de mercado de compreensão de leitura que exige raciocínio discreto sobre parágrafos.

5 fotos

Winogrande

O comparativo de mercado Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas de preenchimento de lacunas ambíguas com opções binárias, exigindo raciocínio generalizado de senso comum.

10 fotos

HellaSwag

O comparativo HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de senso comum selecionando o final mais lógico de uma história.

4 fotos

MATH

O MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, resolução de problemas em várias etapas e a compreensão de conceitos matemáticos.

Zero-shot

ARC-e

O comparativo ARC-e testa as habilidades avançadas de resposta a perguntas de um modelo de linguagem com perguntas de múltipla escolha genuínas do ensino fundamental.

Zero-shot

PIQA

O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento de senso comum físico respondendo a perguntas sobre interações físicas cotidianas.

Zero-shot

SIQA

O comparativo de mercado SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso comum social fazendo perguntas sobre as ações das pessoas e as implicações sociais delas.

Zero-shot

Boolq

O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder a perguntas "sim/não" que ocorrem naturalmente, testando a capacidade dos modelos de realizar tarefas de inferência de linguagem natural do mundo real.

5 fotos

TriviaQA

O comparativo TriviaQA testa as habilidades de compreensão de leitura com triplas de pergunta-resposta-prova.

5 fotos

NQ

O comparativo de NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos completos da Wikipédia, simulando cenários reais de resposta a perguntas.

pass@1

HumanEval

O comparativo HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções passam nos testes de unidade funcionais para problemas de programação.

3 fotos

MBPP

O comparativo de mercado MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco em conceitos de programação fundamentais e uso de bibliotecas padrão.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 bilhões

42,3

Gemma 2

2,6 bilhões

51.3

Mistral

7B

62,5

LLAMA 3

8B

66,6

Gemma 1

7B

64,4

Gemma 2

9 bilhões

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bilhões

55.4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7B

61.1

Gemma 2

9 bilhões

68.4

Gemma 2

27B

71,4

Gemma 1

2,5 bilhões

15.1

Gemma 2

2,6 bilhões

23,9

Mistral

7B

39,6

LLAMA 3

8B

45.7

Gemma 1

7B

51,8

Gemma 2

9 bilhões

68,6

Gemma 2

27B

74,0

Gemma 1

2,5 bilhões

24.2

Gemma 2

2,6 bilhões

30,6

Mistral

7B

44,0

LLAMA 3

8B

45,9

Gemma 1

7B

44,9

Gemma 2

9 bilhões

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 bilhões

35.2

Gemma 2

2,6 bilhões

41,9

Mistral

7B

56,0

LLAMA 3

8B

61.1

Gemma 1

7B

59,0

Gemma 2

9 bilhões

68.2

Gemma 2

27B

74,9

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bilhões

52,0

Mistral

7B

63.8

LLAMA 3

8B

58,4

Gemma 1

7B

56,3

Gemma 2

9 bilhões

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 bilhões

66,8

Gemma 2

2,6 bilhões

70,9

Mistral

7B

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 bilhões

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 bilhões

71,7

Gemma 2

2,6 bilhões

73,0

Mistral

7B

83

LLAMA 3

8B

82,0

Gemma 1

7B

82,3

Gemma 2

9 bilhões

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 bilhões

11.8

Gemma 2

2,6 bilhões

15

Mistral

7B

12.7

Gemma 1

7B

24.3

Gemma 2

9 bilhões

36,6

Gemma 2

27B

42,3

Gemma 1

2,5 bilhões

73,2

Gemma 2

2,6 bilhões

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 bilhões

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 bilhões

77.3

Gemma 2

2,6 bilhões

77,8

Mistral

7B

82,2

Gemma 1

7B

81,2

Gemma 2

9 bilhões

81,7

Gemma 2

27B

83,2

Gemma 1

2,5 bilhões

49,7

Gemma 2

2,6 bilhões

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 bilhões

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 bilhões

69,4

Gemma 2

2,6 bilhões

72,5

Mistral

7B

83,2

Gemma 1

7B

83,2

Gemma 2

9 bilhões

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 bilhões

53.2

Gemma 2

2,6 bilhões

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 bilhões

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 bilhões

12,5

Gemma 2

2,6 bilhões

16.7

Mistral

7B

23.2

Gemma 1

7B

23,0

Gemma 2

9 bilhões

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 bilhões

22,0

Gemma 2

2,6 bilhões

17,7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9 bilhões

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 bilhões

29,2

Gemma 2

2,6 bilhões

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 bilhões

52,4

Gemma 2

27B

62,6

*Esses são os comparativos para os modelos pré-treinados. Consulte o relatório técnico para saber mais sobre a performance com outras metodologias.

PaliGemma 2 Novo

O PaliGemma 2 traz recursos de visão facilmente ajustáveis aos modelos de linguagem Gemma 2, permitindo uma ampla gama de aplicativos que combinam a compreensão de texto e imagem.

DataGemma

Os DataGemma são os primeiros modelos abertos projetados para conectar LLMs a dados reais extraídos do Data Commons do Google.

Escopo do Gemma

O Gemma Scope oferece aos pesquisadores uma transparência sem precedentes nos processos de tomada de decisão dos nossos modelos Gemma 2.

Implantar modelos

Escolher o destino da implantação

Ícone de implantação para dispositivos móveisDispositivo móvel

Implantar no dispositivo com a IA de borda do Google

Implante diretamente nos dispositivos para funcionalidade off-line com baixa latência. Ideal para aplicativos que exigem privacidade e capacidade de resposta em tempo real, como apps para dispositivos móveis, dispositivos de IoT e sistemas embarcados.

Ícone da WebWeb

Integração perfeita a aplicativos da Web

Melhore seus sites e serviços da Web com recursos avançados de IA, como recursos interativos, conteúdo personalizado e automação inteligente.

Ícone de nuvemCloud

Escalone sem esforço com a infraestrutura em nuvem

Aproveite a escalabilidade e a flexibilidade da nuvem para lidar com implantações em grande escala, cargas de trabalho exigentes e aplicativos complexos de IA.

Como aproveitar a comunicação global

Participe da nossa competição global do Kaggle. Criar variantes do modelo Gemma para um idioma ou aspecto cultural específico