Modelos abertos da Gemma

Uma família de modelos abertos leves e modernos, criados a partir da mesma pesquisa e tecnologia usada para criar os modelos do Gemini

Logotipo da Gemma Models

Responsabilidade desde a concepção

Incorporando medidas de segurança abrangentes, esses modelos ajudam a garantir soluções de IA responsáveis e confiáveis com conjuntos de dados selecionados e ajustes rigorosos.

Logotipo da Gemma Models

Desempenho incomparável em tamanho

Os modelos Gemma alcançam resultados de referência excepcionais nos tamanhos 2B e 7B, superando até mesmo alguns modelos abertos maiores.

Logotipo da Gemma Models

Framework flexível

Com o Keras 3.0, você tem total compatibilidade com JAX, TensorFlow e PyTorch, podendo escolher e alternar entre frameworks sem dificuldades de acordo com sua tarefa.

Comparativos de mercado

A Gemma define um novo padrão de desempenho em termos de tamanho em comparação com modelos populares como Llama 2 e Mistral 7B.

5 rebatidas, top-1

MMLU

O comparativo de MMLU é um teste que mede a amplitude de conhecimento e capacidade de solução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.

0 tiro

HellaSwag

O comparativo de mercado HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio pelo bom senso selecionando o final mais lógico para uma história.

0 tiro

PIQA

O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas diárias.

0 tiro

SIQA

O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem das interações sociais e do senso comum social, fazendo perguntas sobre as ações das pessoas e suas implicações sociais.

0 tiro

Boolq

O comparativo de mercado do BoolQ testa a capacidade de um modelo de linguagem de responder a perguntas de sim/não que ocorrem naturalmente (geradas em configurações não solicitadas e não restritas), testando a capacidade do modelo de realizar tarefas de inferência de linguagem natural do mundo real.

pontuação parcial

Winogrande

O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas de preenchimento ambíguo com opções binárias, exigindo um raciocínio generalizado com bom senso.

7 tiros

CQA

O comparativo de mercado do CQA avalia o desempenho de modelos de linguagem nas perguntas de múltipla escolha, exigindo diferentes tipos de conhecimento de bom senso.

OBQA

O comparativo de mercado da OBQA avalia a capacidade de um modelo de linguagem de responder a perguntas avançadas com raciocínio em várias etapas, conhecimento de senso comum e compreensão de rich text, modelados após exames de livros abertos.

ARC-E

O comparativo de mercado ARC-e testa as habilidades avançadas para responder a perguntas de um modelo de linguagem com questões de múltipla escolha genuínas de ensino fundamental e médio.

ARC-C

O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).

5 tiros

TriviaQA

O comparativo de mercado do TriviaQA testa as habilidades de compreensão de leitura com três evidências de perguntas e respostas.

passe@1

HumanEval

O comparativo de mercado da HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções passam em testes de unidade funcionais para problemas de programação.

3 tiros

MBPP

O comparativo de mercado do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco em conceitos fundamentais de programação e no uso da biblioteca padrão.

maj@1

GSM8K

O comparativo de mercado do GSM8K testa a capacidade de um modelo de linguagem de resolver problemas de matemática no nível escolar que frequentemente exigem várias etapas de raciocínio.

4 tiros

MATH

O parâmetro MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos matemáticos, exigindo raciocínio, resolução de problemas com várias etapas e compreensão de conceitos matemáticos.

AGIEval

O comparativo de mercado do AGIEval testa a inteligência geral de um modelo de linguagem usando perguntas derivadas de exames do mundo real, projetados para avaliar as habilidades intelectuais humanas (exames de admissão a faculdades, exames de direito etc.).

BH

O comparativo de mercado de BBH (Big-Bench Hard) concentra-se em tarefas consideradas além das capacidades dos modelos de linguagem atuais, testando seus limites em vários domínios de raciocínio e compreensão.

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma

7 bi

64,3

Gemma

2b

42,3

Mistral

7 bi

62,5

LLAMA-2

13 bi

54,8

LLAMA-2

7 bi

45,3

Gemma

7 bi

81,2

Gemma

2b

71,4

Mistral

7 bi

81,0

LLAMA-2

13 bi

80,7

LLAMA-2

7 bi

77,2

Gemma

7 bi

81,2

Gemma

2b

77,3

Mistral

7 bi

82,2

LLAMA-2

13 bi

80,5

LLAMA-2

7 bi

78,8

Gemma

7 bi

51,8

Gemma

2b

49,7

Mistral

7 bi

47,0*

LLAMA-2

13 bi

50,3

LLAMA-2

7 bi

48,3

Gemma

7 bi

83,2

Gemma

2b

69,42

Mistral

7 bi

83,2*

LLAMA-2

13 bi

81,7

LLAMA-2

7 bi

77,4

Gemma

7 bi

72,3

Gemma

2b

65,4

Mistral

7 bi

74,2

LLAMA-2

13 bi

72,8

LLAMA-2

7 bi

69,2

Gemma

7 bi

71,3

Gemma

2b

65,3

Mistral

7 bi

66,3*

LLAMA-2

13 bi

67,3

LLAMA-2

7 bi

57,8

Gemma

7 bi

52,8

Gemma

2b

47,8

Mistral

7 bi

52,2

LLAMA-2

13 bi

57,0

LLAMA-2

7 bi

58,6

Gemma

7 bi

81,5

Gemma

2b

73,2

Mistral

7 bi

80,5

LLAMA-2

13 bi

77,3

LLAMA-2

7 bi

75,2

Gemma

7 bi

53.2

Gemma

2b

42,06

Mistral

7 bi

54,9

LLAMA-2

13 bi

49,4

LLAMA-2

7 bi

45,9

Gemma

7 bi

63,4

Gemma

2b

53.2

Mistral

7 bi

62,5

LLAMA-2

13 bi

79,6

LLAMA-2

7 bi

72,1

Gemma

7 bi

32,3

Gemma

2b

22,0

Mistral

7 bi

26,2

LLAMA-2

13 bi

18,3

LLAMA-2

7 bi

12.8

Gemma

7 bi

44,4

Gemma

2b

29,2

Mistral

7 bi

40,2*

LLAMA-2

13 bi

30,6

LLAMA-2

7 bi

20,8

Gemma

7 bi

46,4

Gemma

2b

17,7

Mistral

7 bi

35,4*

LLAMA-2

13 bi

28,7

LLAMA-2

7 bi

14,6

Gemma

7 bi

24,3

Gemma

2b

11.8

Mistral

7 bi

12.7

LLAMA-2

13 bi

3.9

LLAMA-2

7 bi

2.5

Gemma

7 bi

41,7

Gemma

2b

24,2

Mistral

7 bi

41,2*

LLAMA-2

13 bi

39,1

LLAMA-2

7 bi

29,3

Gemma

7 bi

55.1

Gemma

2b

35,2

Mistral

7 bi

56,1*

LLAMA-2

13 bi

39,4

LLAMA-2

7 bi

32.6

*Consulte o relatório técnico para ver detalhes sobre o desempenho com outras metodologias

Desenvolvimento de IA responsável

Responsabilidade desde a concepção

Pré-treinados com dados cuidadosamente selecionados e ajustados para garantir a segurança, ajudando a capacitar o desenvolvimento de IA seguro e responsável com base em modelos Gemma.

Avaliação robusta e transparente

Avaliações abrangentes e relatórios transparentes revelam limitações de modelos para a adoção de uma abordagem responsável em cada caso de uso.

Impulsionar o desenvolvimento responsável

O kit de ferramentas de IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.

Ícone do Google Cloud

Otimizado para o Google Cloud

Com modelos Gemma no Google Cloud, é possível personalizar profundamente o modelo de acordo com suas necessidades específicas com as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura otimizada por IA flexível e econômica.

Acelerando a pesquisa acadêmica com créditos do Google Cloud

O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição, concedendo créditos do Google Cloud para apoiar pesquisadores que quebram os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surgirá dessa iniciativa.

Fique por dentro das próximas oportunidades para aprimorar sua pesquisa com o Google Cloud.

Participe da comunidade

Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.

Crie o melhor assistente de IA para engenheiros de ML

A Kaggle está organizando uma competição desafiando participantes a usar modelos Gemma para criar os melhores assistentes de IA para tarefas de engenharia de ML. Os vencedores serão anunciados no Google I/O.

Participe da competição
Troféu de competição do Kaggle