Modelos abertos do Gemma

Uma família de modelos abertos, leves e modernos, criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini

Ícone de "Responsável pelo design"

Responsável desde a concepção

Esses modelos incorporam medidas de segurança abrangentes e ajudam a garantir soluções de IA responsáveis e confiáveis por meio de conjuntos de dados selecionados e ajustes rigorosos.

Ícone de performance incomparável

Desempenho incomparável em tamanho

Os modelos Gemma alcançam resultados excepcionais de comparativo de mercado nos tamanhos 2B, 7B, 9B e 27B, superando até mesmo alguns modelos abertos maiores.

Framework flexível

Framework flexível

Com o Keras 3.0, aproveite a compatibilidade total com JAX, TensorFlow e PyTorch, permitindo que você escolha e alterne frameworks sem esforço, dependendo da tarefa.

Conheça o
Gemma 2

Reformulado para desempenho extraordinário e eficiência incomparável, o Gemma 2 otimiza a inferência ultrarrápida em diversos hardwares.

5 tiros

MMLU

O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.

25 tiros

ARC-C

O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).

5 tiros

GSM8K

O comparativo de mercado GSM8K testa a capacidade de um modelo de linguagem de resolver problemas matemáticos adequados à escola, que muitas vezes exigem várias etapas de raciocínio.

3 a 5 fotos

AGIEval

O comparativo de mercado AGIEval testa a inteligência geral de um modelo de linguagem usando questões derivadas de exames do mundo real, desenvolvidas para avaliar as habilidades intelectuais humanas.

3 shots, camarim

BBH

O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das capacidades dos modelos de linguagem atuais, testando seus limites em vários domínios de raciocínio e compreensão.

3-shot, F1

SOLTAR

O DROP é um comparativo de mercado de compreensão de leitura que requer raciocínio discreto ao longo de parágrafos.

5 tiros

Winogrande

O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas ambíguas de preenchimento de lacunas com opções binárias, exigindo um raciocínio comum generalizado.

10 fotos

HellaSwag

O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.

4 fotos

MATEMÁTICA

A MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, solução de problemas com várias etapas e a compreensão de conceitos matemáticos.

0 tacada

ARC-e

O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.

0 tacada

PIQA

O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas cotidianas.

0 tacada

SIQA

O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso social comum fazendo perguntas sobre as ações das pessoas e suas implicações sociais.

0 tacada

Boolq

O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder perguntas do tipo "sim" ou "não" que ocorrem naturalmente e testa a capacidade do modelo de realizar tarefas de inferência de linguagem natural no mundo real.

5 tiros

TriviaQA

O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas: evidências de perguntas e respostas.

5 tiros

NQ

O comparativo de mercado NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos inteiros da Wikipédia, simulando cenários reais de respostas a perguntas.

passa@1

HumanEval

O comparativo do HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções dele passam em testes de unidade funcionais para problemas de programação.

3 fotos

MBPP

O comparativo do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco nos conceitos fundamentais de programação e no uso da biblioteca padrão.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 bi

42,3

Gemma 2

2,6 bi

51,3

Mistral

7 bi

62,5

LLAMA 3 (em inglês)

8 bi

66,6

Gemma 1

7 bi

64,4

Gemma 2

9 bilhões

71,3

Gemma 2

27 bi

75,2

Gemma 1

2,5 bi

48,5

Gemma 2

2,6 bi

55,4

Mistral

7 bi

60.5

LLAMA 3 (em inglês)

8 bi

59,2

Gemma 1

7 bi

61,1

Gemma 2

9 bilhões

68,4

Gemma 2

27 bi

71,4

Gemma 1

2,5 bi

15.1

Gemma 2

2,6 bi

23,9

Mistral

7 bi

39,6

LLAMA 3 (em inglês)

8 bi

45.7

Gemma 1

7 bi

51,8

Gemma 2

9 bilhões

68,6

Gemma 2

27 bi

74,0

Gemma 1

2,5 bi

24,2

Gemma 2

2,6 bi

30,6

Mistral

7 bi

44,0

LLAMA 3 (em inglês)

8 bi

45,9

Gemma 1

7 bi

44,9

Gemma 2

9 bilhões

52,8

Gemma 2

27 bi

55.1

Gemma 1

2,5 bi

35,2

Gemma 2

2,6 bi

41,9

Mistral

7 bi

56,0

LLAMA 3 (em inglês)

8 bi

61,1

Gemma 1

7 bi

59,0

Gemma 2

9 bilhões

68.2

Gemma 2

27 bi

74,9

Gemma 1

2,5 bi

48,5

Gemma 2

2,6 bi

52,0

Mistral

7 bi

63.8

LLAMA 3 (em inglês)

8 bi

58,4

Gemma 1

7 bi

56,3

Gemma 2

9 bilhões

69,4

Gemma 2

27 bi

74,2

Gemma 1

2,5 bi

66,8

Gemma 2

2,6 bi

70,9

Mistral

7 bi

78,5

LLAMA 3 (em inglês)

8 bi

76,1

Gemma 1

7 bi

79,0

Gemma 2

9 bilhões

80,6

Gemma 2

27 bi

83,7

Gemma 1

2,5 bi

71,7

Gemma 2

2,6 bi

73,0

Mistral

7 bi

83

LLAMA 3 (em inglês)

8 bi

82,0

Gemma 1

7 bi

82,3

Gemma 2

9 bilhões

81,9

Gemma 2

27 bi

86,4

Gemma 1

2,5 bi

11.8

Gemma 2

2,6 bi

15

Mistral

7 bi

12.7

Gemma 1

7 bi

24,3

Gemma 2

9 bilhões

36,6

Gemma 2

27 bi

42,3

Gemma 1

2,5 bi

73,2

Gemma 2

2,6 bi

80,1

Mistral

7 bi

80,5

Gemma 1

7 bi

81,5

Gemma 2

9 bilhões

88,0

Gemma 2

27 bi

88,6

Gemma 1

2,5 bi

77,3

Gemma 2

2,6 bi

77,8

Mistral

7 bi

82,2

Gemma 1

7 bi

81,2

Gemma 2

9 bilhões

81,7

Gemma 2

27 bi

83,2

Gemma 1

2,5 bi

49,7

Gemma 2

2,6 bi

51,9

Mistral

7 bi

47,0

Gemma 1

7 bi

51,8

Gemma 2

9 bilhões

53,4

Gemma 2

27 bi

53,7

Gemma 1

2,5 bi

69,4

Gemma 2

2,6 bi

72,5

Mistral

7 bi

83,2

Gemma 1

7 bi

83,2

Gemma 2

9 bilhões

84,2

Gemma 2

27 bi

84,8

Gemma 1

2,5 bi

53.2

Gemma 2

2,6 bi

59,4

Mistral

7 bi

62,5

Gemma 1

7 bi

63,4

Gemma 2

9 bilhões

76,6

Gemma 2

27 bi

83,7

Gemma 1

2,5 bi

12,5

Gemma 2

2,6 bi

16,7

Mistral

7 bi

23.2

Gemma 1

7 bi

23,0

Gemma 2

9 bilhões

29,2

Gemma 2

27 bi

34,5

Gemma 1

2,5 bi

22,0

Gemma 2

2,6 bi

17,7

Mistral

7 bi

26,2

Gemma 1

7 bi

32,3

Gemma 2

9 bilhões

40,2

Gemma 2

27 bi

51,8

Gemma 1

2,5 bi

29,2

Gemma 2

2,6 bi

29,6

Mistral

7 bi

40,2

Gemma 1

7 bi

44,4

Gemma 2

9 bilhões

52,4

Gemma 2

27 bi

62,6

*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para detalhes sobre o desempenho com outras metodologias.

Guias de início rápido para desenvolvedores

Manual do Gemma

Conheça uma coleção de receitas e exemplos práticos que mostram o poder e a versatilidade do Gemma para tarefas como legendagem de imagens com o PaliGemma, geração de código com o CodeGemma e criação de chatbots com modelos Gemma ajustados.

Desenvolvimento de IA responsável

Responsabilidade desde a concepção

Pré-treinados em dados cuidadosamente selecionados e ajustados para segurança no topo, ajudando a capacitar o desenvolvimento de IA seguro e responsável com base com modelos Gemma.

Avaliação robusta e transparente

Avaliações abrangentes e relatórios transparentes revelam as limitações do modelo para a adoção de uma abordagem responsável em cada caso de uso.

Promovendo o desenvolvimento responsável

O kit de ferramentas de IA generativa responsável ajuda desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.

Ícone do Google Cloud

Otimizado para o Google Cloud

Com os modelos Gemma no Google Cloud, é possível personalizar em detalhes o modelo de acordo com suas necessidades específicas com as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e econômica otimizada por IA.

Aceleração da pesquisa acadêmica com créditos do Google Cloud

O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surge dessa iniciativa.

Não perca as próximas oportunidades de aprimorar sua pesquisa com o Google Cloud.

Participe da comunidade

Conecte, teste e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.