Modelos abertos do Gemma

Uma família de modelos abertos, leves e modernos, criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini

Ícone "Responsabilidade desde a concepção"

Responsável desde a concepção

Esses modelos incorporam medidas de segurança abrangentes e ajudam a garantir soluções de IA responsáveis e confiáveis por meio de conjuntos de dados selecionados e ajustes rigorosos.

Ícone de performance não correspondente

Desempenho incomparável em tamanho

Os modelos Gemma alcançam resultados excepcionais de comparativo de mercado nos tamanhos 2B, 7B, 9B e 27B, superando até mesmo alguns modelos abertos maiores.

Framework flexível

Framework flexível

Com o Keras 3.0, aproveite a compatibilidade total com JAX, TensorFlow e PyTorch, permitindo que você escolha e alterne frameworks com facilidade de acordo com sua tarefa.

Conheça a
Gemma 2

O Gemma 2 foi redesenhado para ter um desempenho superior e eficiência incomparável, otimizando a inferência em diversos hardwares.

5 fotos

MMLU

O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.

25 tiros

ARC-C

O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).

5 tiros

GSM8K

O comparativo de mercado GSM8K testa a capacidade de um modelo de linguagem de resolver problemas matemáticos da escola, que muitas vezes exigem várias etapas de raciocínio.

3 a 5 fotos

AGIEval

O comparativo AGIEval testa a inteligência geral de um modelo de linguagem usando perguntas derivadas de exames reais projetados para avaliar as habilidades intelectuais humanas.

3 shots, camarim

BBH

O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das habilidades dos modelos de linguagem atuais, testando os limites deles em vários domínios de raciocínio e compreensão.

3-shot, F1

SOLTAR

O DROP é um comparativo de mercado de compreensão de leitura que requer raciocínio discreto ao longo de parágrafos.

5 tiros

Winogrande

O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas ambíguas de preenchimento de lacunas com opções binárias, exigindo um raciocínio comum generalizado.

10 fotos

HellaSwag

O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.

4 fotos

MATH

A MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, solução de problemas com várias etapas e a compreensão de conceitos matemáticos.

Zero-shot

ARC-e

O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.

Zero-shot

PIQA

O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas cotidianas.

Zero-shot

Controle de qualidade de segurança (SIQA, na sigla em inglês)

O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso social comum fazendo perguntas sobre as ações das pessoas e suas implicações sociais.

Zero-shot

Boolq

O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder perguntas do tipo "sim" ou "não" que ocorrem naturalmente e testa a capacidade do modelo de realizar tarefas de inferência de linguagem natural no mundo real.

5 tiros

TriviaQA

O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas: evidências de perguntas e respostas.

5 fotos

NQ

O comparativo de mercado NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos inteiros da Wikipédia, simulando cenários reais de respostas a perguntas.

passa@1

HumanEval

O comparativo HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções passam em testes de unidade funcionais para problemas de programação.

3 fotos

MBPP

O comparativo do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco nos conceitos fundamentais de programação e no uso da biblioteca padrão.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

2,5 bilhões

42,3

Gemma 2

2,6 bi

51,3

Mistral

7 bi

62,5

LLAMA 3

8 bi

66,6

Gemma 1

7B

64,4

Gemma 2

9 bilhões

71,3

Gemma 2

27B

75,2

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bilhões

55,4

Mistral

7B

60.5

LLAMA 3

8 bi

59,2

Gemma 1

7B

61,1

Gemma 2

9 bilhões

68,4

Gemma 2

27B

71,4

Gemma 1

2,5 bi

15.1

Gemma 2

2,6 bi

23,9

Mistral

7 bi

39,6

LLAMA 3

8B

45.7

Gemma 1

7B

51,8

Gemma 2

9 bilhões

68,6

Gemma 2

27 bi

74,0

Gemma 1

2,5 bilhões

24,2

Gemma 2

2,6 bi

30,6

Mistral

7B

44,0

LLAMA 3 (em inglês)

8 bi

45,9

Gemma 1

7B

44,9

Gemma 2

9 bilhões

52,8

Gemma 2

27 bi

55.1

Gemma 1

2,5 bilhões

35,2

Gemma 2

2,6 bi

41,9

Mistral

7 bi

56,0

LLAMA 3

8B

61,1

Gemma 1

7B

59,0

Gemma 2

9 bilhões

68.2

Gemma 2

27 bi

74,9

Gemma 1

2,5 bilhões

48,5

Gemma 2

2,6 bi

52,0

Mistral

7B

63.8

LLAMA 3

8B

58,4

Gemma 1

7 bi

56,3

Gemma 2

9 bilhões

69,4

Gemma 2

27B

74,2

Gemma 1

2,5 bi

66,8

Gemma 2

2,6 bilhões

70,9

Mistral

7B

78,5

LLAMA 3

8 bi

76,1

Gemma 1

7 bi

79,0

Gemma 2

9 bilhões

80,6

Gemma 2

27 bi

83,7

Gemma 1

2,5 bilhões

71,7

Gemma 2

2,6 bi

73,0

Mistral

7 bi

83

LLAMA 3 (em inglês)

8 bi

82,0

Gemma 1

7 bi

82,3

Gemma 2

9 bilhões

81,9

Gemma 2

27 bi

86,4

Gemma 1

2,5 bi

11.8

Gemma 2

2,6 bi

15

Mistral

7B

12.7

Gemma 1

7 bi

24.3

Gemma 2

9 bilhões

36,6

Gemma 2

27B

42,3

Gemma 1

2,5 bi

73,2

Gemma 2

2,6 bi

80,1

Mistral

7B

80,5

Gemma 1

7B

81,5

Gemma 2

9 bilhões

88,0

Gemma 2

27B

88,6

Gemma 1

2,5 bi

77.3

Gemma 2

2,6 bi

77,8

Mistral

7 bi

82,2

Gemma 1

7 bi

81,2

Gemma 2

9 bilhões

81,7

Gemma 2

27 bi

83,2

Gemma 1

2,5 bilhões

49,7

Gemma 2

2,6 bi

51,9

Mistral

7 bi

47,0

Gemma 1

7B

51,8

Gemma 2

9 bilhões

53,4

Gemma 2

27B

53,7

Gemma 1

2,5 bi

69,4

Gemma 2

2,6 bi

72,5

Mistral

7 bi

83,2

Gemma 1

7B

83,2

Gemma 2

9 bilhões

84,2

Gemma 2

27B

84,8

Gemma 1

2,5 bi

53.2

Gemma 2

2,6 bi

59,4

Mistral

7 bi

62,5

Gemma 1

7B

63,4

Gemma 2

9 bilhões

76,6

Gemma 2

27 bi

83,7

Gemma 1

2,5 bilhões

12,5

Gemma 2

2,6 bilhões

16,7

Mistral

7 bi

23.2

Gemma 1

7B

23,0

Gemma 2

9 bilhões

29,2

Gemma 2

27B

34,5

Gemma 1

2,5 bi

22,0

Gemma 2

2,6 bi

17,7

Mistral

7B

26,2

Gemma 1

7 bi

32,3

Gemma 2

9 bilhões

40,2

Gemma 2

27 bi

51,8

Gemma 1

2,5 bi

29,2

Gemma 2

2,6 bilhões

29,6

Mistral

7 bi

40,2

Gemma 1

7B

44,4

Gemma 2

9 bilhões

52,4

Gemma 2

27 bi

62,6

*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para detalhes sobre o desempenho com outras metodologias.

Família de modelos Gemma

Nova versão

Gemma 2

O Gemma 2 oferece três modelos novos, poderosos e eficientes, disponíveis em 2, 9 e 27 bilhões de tamanhos de parâmetros, todos com avanços de segurança integrados.

Nova versão

DataGemma

O DataGemma são os primeiros modelos abertos criados para conectar LLMs a extensos dados do mundo real extraídos do Data Commons do Google.

Gemma 1

Os modelos Gemma são modelos de linguagem grandes, leves, de texto para texto e somente decodificador, treinados com um enorme conjunto de dados de texto, código e conteúdo matemático para várias tarefas de processamento de linguagem natural.

RecurrentGemma

O RecurrentGemma é um modelo tecnicamente distinto que aproveita redes neurais recorrentes e atenção local para melhorar a eficiência da memória.

PaliGemma

O PaliGemma é um modelo aberto de linguagem/visão inspirado no PaLI-3, que usa o SigLIP e o Gemma. Ele foi projetado como um modelo versátil para transferência para uma ampla gama de tarefas de linguagem/visão.

CodeGemma

Usando a base dos nossos modelos originais do Gemma pré-treinados, o CodeGemma oferece recursos poderosos de preenchimento e geração de código em tamanhos adequados para seu computador local.

Guias de início rápido para desenvolvedores

Livro de receitas do Gemma

Conheça uma coleção de exemplos e receitas práticas que mostram o poder e a versatilidade do Gemma para tarefas como legenda de imagens com PaliGemma, geração de código com CodeGemma e criação de chatbots com modelos do Gemma ajustados.

Desenvolvimento de IA responsável

Responsabilidade desde a concepção

Pré-treinado com dados cuidadosamente selecionados e ajustado para a segurança, ajudando a impulsionar o desenvolvimento de IA seguro e responsável com base nos modelos Gemma.

Avaliação robusta e transparente

A avaliação abrangente e os relatórios transparentes revelam as limitações do modelo para adotar uma abordagem responsável para cada caso de uso.

Promovendo o desenvolvimento responsável

O Toolkit para IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.

Ícone do Google Cloud

Otimizado para o Google Cloud

Com os modelos Gemma no Google Cloud, é possível personalizar o modelo de acordo com suas necessidades específicas usando as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e otimizada para IA.

Como acelerar a pesquisa acadêmica com créditos do Google Cloud

O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surge dessa iniciativa.

Não perca as próximas oportunidades de aprimorar sua pesquisa com o Google Cloud.

Participe da comunidade

Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.