Modelos abertos do Gemma

Uma família de modelos abertos leves e de última geração criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini

Ícone de "Responsável pelo design"

Responsabilidade incorporada ao design

Esses modelos incorporam medidas de segurança abrangentes e ajudam a garantir soluções de IA responsáveis e confiáveis com conjuntos de dados selecionados e ajustes rigorosos.

Ícone de performance não correspondente

Desempenho incomparável em tamanho

Os modelos Gemma alcançam resultados de comparação excepcionais nos tamanhos 2B, 7B, 9B e 27B, superando até mesmo alguns modelos abertos maiores.

Framework flexível

Framework flexível

Com o Keras 3.0, aproveite a compatibilidade total com JAX, TensorFlow e PyTorch, permitindo que você escolha e alterne frameworks sem esforço, dependendo da sua tarefa.

Conheça a
Gemma 2

Reformulado para desempenho extraordinário e eficiência incomparável, o Gemma 2 otimiza a inferência ultrarrápida em diversos hardwares.

5 fotos

MMLU

O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.

25 tiros

ARC-C

O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).

5 fotos

GSM8K

O comparativo GSM8K testa a capacidade de um modelo de linguagem de resolver problemas de matemática do ensino fundamental que geralmente exigem várias etapas de raciocínio.

3 a 5 tiros

AGIEval

O comparativo de mercado AGIEval testa a inteligência geral de um modelo de linguagem usando questões derivadas de exames do mundo real, desenvolvidas para avaliar as habilidades intelectuais humanas.

3-shot, CoT

BBH

O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das habilidades dos modelos de linguagem atuais, testando os limites deles em vários domínios de raciocínio e compreensão.

3 fotos, F1

SOLTAR

O DROP é um comparativo de mercado de compreensão de leitura que exige raciocínio discreto sobre parágrafos.

5 tiros

Winogrande

O comparativo de mercado Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas de preenchimento de lacunas ambíguas com opções binárias, exigindo raciocínio generalizado de senso comum.

10 fotos

HellaSwag

O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.

4 fotos

MATH

O MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, resolução de problemas em várias etapas e a compreensão de conceitos matemáticos.

Zero-shot

ARC-e

O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.

Zero-shot

PIQA

O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar conhecimentos físicos comuns, respondendo a perguntas sobre interações físicas cotidianas.

Zero-shot

SIQA

O comparativo de mercado SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso comum social fazendo perguntas sobre as ações das pessoas e as implicações sociais delas.

Zero-shot

Boolq

O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder a perguntas "sim/não" que ocorrem naturalmente, testando a capacidade dos modelos de realizar tarefas de inferência de linguagem natural do mundo real.

5 fotos

TriviaQA

O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas/respostas-evidência.

5 fotos

NQ

O comparativo de NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos completos da Wikipédia, simulando cenários reais de resposta a perguntas.

passa@1

HumanEval

O comparativo do HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções dele passam em testes de unidade funcionais para problemas de programação.

3 fotos

MBPP

O comparativo de mercado MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco em conceitos de programação fundamentais e uso de bibliotecas padrão.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 bilhões

42,3

Gemma 2

2,6 bilhões

51.3

Mistral

7B

62,5

LLAMA 3

8 bi

66,6

Gemma 1

7B

64,4

Gemma 2

9 bilhões

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bilhões

55.4

Mistral

7B

60.5

LLAMA 3

8B

59,2

Gemma 1

7B

61.1

Gemma 2

9 bilhões

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 bilhões

15.1

Gemma 2

2,6 bilhões

23,9

Mistral

7 bi

39,6

LLAMA 3 (em inglês)

8B

45.7

Gemma 1

7B

51,8

Gemma 2

9 bilhões

68,6

Gemma 2

27 bi

74,0

Gemma 1

2,5 bilhões

24.2

Gemma 2

2,6 bilhões

30,6

Mistral

7 bi

44,0

LLAMA 3

8 bi

45,9

Gemma 1

7 bi

44,9

Gemma 2

9 bilhões

52,8

Gemma 2

27B

55.1

Gemma 1

2,5 bilhões

35.2

Gemma 2

2,6 bilhões

41,9

Mistral

7B

56,0

LLAMA 3

8B

61.1

Gemma 1

7B

59,0

Gemma 2

9 bilhões

68.2

Gemma 2

27B

74,9

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bilhões

52,0

Mistral

7B

63.8

LLAMA 3

8B

58,4

Gemma 1

7 bi

56,3

Gemma 2

9 bilhões

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 bilhões

66,8

Gemma 2

2,6 bi

70,9

Mistral

7B

78,5

LLAMA 3

8B

76,1

Gemma 1

7B

79,0

Gemma 2

9 bilhões

80,6

Gemma 2

27B

83,7

Gemma 1

2,5 bilhões

71,7

Gemma 2

2,6 bi

73,0

Mistral

7 bi

83

LLAMA 3

8 bi

82,0

Gemma 1

7B

82,3

Gemma 2

9 bilhões

81,9

Gemma 2

27B

86,4

Gemma 1

2,5 bilhões

11.8

Gemma 2

2,6 bilhões

15

Mistral

7 bi

12.7

Gemma 1

7B

24.3

Gemma 2

9 bilhões

36,6

Gemma 2

27B

42,3

Gemma 1

2,5 bilhões

73,2

Gemma 2

2,6 bilhões

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 bilhões

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 bilhões

77.3

Gemma 2

2,6 bilhões

77,8

Mistral

7B

82,2

Gemma 1

7 bi

81,2

Gemma 2

9 bilhões

81,7

Gemma 2

27 bi

83,2

Gemma 1

2,5 bilhões

49,7

Gemma 2

2,6 bilhões

51,9

Mistral

7B

47,0

Gemma 1

7B

51,8

Gemma 2

9 bilhões

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 bi

69,4

Gemma 2

2,6 bilhões

72,5

Mistral

7 bi

83,2

Gemma 1

7B

83,2

Gemma 2

9 bilhões

84,2

Gemma 2

27 bi

84,8

Gemma 1

2,5 bilhões

53.2

Gemma 2

2,6 bilhões

59,4

Mistral

7B

62,5

Gemma 1

7B

63,4

Gemma 2

9 bilhões

76,6

Gemma 2

27B

83,7

Gemma 1

2,5 bi

12,5

Gemma 2

2,6 bilhões

16.7

Mistral

7B

23.2

Gemma 1

7B

23,0

Gemma 2

9 bilhões

29,2

Gemma 2

27 bi

34,5

Gemma 1

2,5 bi

22,0

Gemma 2

2,6 bilhões

17,7

Mistral

7B

26.2

Gemma 1

7B

32.3

Gemma 2

9 bilhões

40,2

Gemma 2

27B

51,8

Gemma 1

2,5 bi

29,2

Gemma 2

2,6 bilhões

29,6

Mistral

7B

40,2

Gemma 1

7B

44,4

Gemma 2

9 bilhões

52,4

Gemma 2

27 bi

62,6

*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para saber mais sobre a performance com outras metodologias.

Família de modelos Gemma

Lançamento

Gemma 2

O Gemma 2 oferece três modelos novos, poderosos e eficientes, disponíveis em 2, 9 e 27 bilhões de tamanhos de parâmetros, todos com avanços de segurança integrados.

Lançamento

DataGemma

Os DataGemma são os primeiros modelos abertos projetados para conectar LLMs a dados reais extraídos do Data Commons do Google.

Gemma 1

Os modelos Gemma são modelos de linguagem grandes, leves, de texto para texto e somente decodificador, treinados em um enorme conjunto de dados de texto, código e conteúdo matemático para várias tarefas de processamento de linguagem natural.

RecurrentGemma

O RecurrentGemma é um modelo tecnicamente distinto que aproveita redes neurais recorrentes e atenção local para melhorar a eficiência da memória.

PaliGemma

O PaliGemma é um modelo aberto de linguagem/visão inspirado no PaLI-3, que usa o SigLIP e o Gemma. Ele foi projetado como um modelo versátil para transferência para uma ampla gama de tarefas de linguagem/visão.

CodeGemma

Usando a base dos nossos modelos originais do Gemma pré-treinados, o CodeGemma oferece recursos poderosos de preenchimento e geração de código em tamanhos adequados para seu computador local.

Guias de início rápido para desenvolvedores

Livro de receitas do Gemma

Conheça uma coleção de exemplos e receitas práticas que mostram o poder e a versatilidade do Gemma para tarefas como legenda de imagens com PaliGemma, geração de código com CodeGemma e criação de chatbots com modelos do Gemma ajustados.

Desenvolvimento de IA responsável

Responsabilidade desde a concepção

Pré-treinado com dados cuidadosamente selecionados e ajustado para garantir a segurança, ajudando a impulsionar o desenvolvimento de IA seguro e responsável com base nos modelos Gemma.

Avaliação robusta e transparente

A avaliação abrangente e os relatórios transparentes revelam as limitações do modelo para adotar uma abordagem responsável para cada caso de uso.

Promovendo o desenvolvimento responsável

O Toolkit para IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.

Ícone do Google Cloud

Otimizado para o Google Cloud

Com os modelos Gemma no Google Cloud, é possível personalizar o modelo de acordo com suas necessidades específicas usando as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e otimizada para IA.

Aceleração da pesquisa acadêmica com créditos do Google Cloud

O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos ansiosos para conferir as pesquisas inovadoras que vão surgir com essa iniciativa.

Não perca as próximas oportunidades de aprimorar sua pesquisa com o Google Cloud.

Participe da comunidade

Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.