Modelos abertos do Gemma
Uma família de modelos abertos, leves e modernos, criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini
Conheça a
Gemma 2
O Gemma 2 foi redesenhado para ter um desempenho superior e eficiência incomparável, otimizando a inferência em diversos hardwares.
5 fotos
MMLU
O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.
25 tiros
ARC-C
O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).
5 tiros
GSM8K
O comparativo de mercado GSM8K testa a capacidade de um modelo de linguagem de resolver problemas matemáticos da escola, que muitas vezes exigem várias etapas de raciocínio.
3 a 5 fotos
AGIEval
O comparativo AGIEval testa a inteligência geral de um modelo de linguagem usando perguntas derivadas de exames reais projetados para avaliar as habilidades intelectuais humanas.
3 shots, camarim
BBH
O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das habilidades dos modelos de linguagem atuais, testando os limites deles em vários domínios de raciocínio e compreensão.
3-shot, F1
SOLTAR
O DROP é um comparativo de mercado de compreensão de leitura que requer raciocínio discreto ao longo de parágrafos.
5 tiros
Winogrande
O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas ambíguas de preenchimento de lacunas com opções binárias, exigindo um raciocínio comum generalizado.
10 fotos
HellaSwag
O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.
4 fotos
MATH
A MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, solução de problemas com várias etapas e a compreensão de conceitos matemáticos.
Zero-shot
ARC-e
O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.
Zero-shot
PIQA
O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas cotidianas.
Zero-shot
Controle de qualidade de segurança (SIQA, na sigla em inglês)
O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso social comum fazendo perguntas sobre as ações das pessoas e suas implicações sociais.
Zero-shot
Boolq
O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder perguntas do tipo "sim" ou "não" que ocorrem naturalmente e testa a capacidade do modelo de realizar tarefas de inferência de linguagem natural no mundo real.
5 tiros
TriviaQA
O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas: evidências de perguntas e respostas.
5 fotos
NQ
O comparativo de mercado NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos inteiros da Wikipédia, simulando cenários reais de respostas a perguntas.
passa@1
HumanEval
O comparativo HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções passam em testes de unidade funcionais para problemas de programação.
3 fotos
MBPP
O comparativo do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco nos conceitos fundamentais de programação e no uso da biblioteca padrão.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3
8 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7B
LLAMA 3 (em inglês)
8 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7B
LLAMA 3
8B
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7B
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7B
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para detalhes sobre o desempenho com outras metodologias.
Família de modelos Gemma
Conheça nossas ferramentas
Guias de início rápido para desenvolvedores
Guias de início rápido para parceiros
Livro de receitas do Gemma
Conheça uma coleção de exemplos e receitas práticas que mostram o poder e a versatilidade do Gemma para tarefas como legenda de imagens com PaliGemma, geração de código com CodeGemma e criação de chatbots com modelos do Gemma ajustados.
Desenvolvimento de IA responsável
Responsabilidade desde a concepção
Pré-treinado com dados cuidadosamente selecionados e ajustado para a segurança, ajudando a impulsionar o desenvolvimento de IA seguro e responsável com base nos modelos Gemma.
Avaliação robusta e transparente
A avaliação abrangente e os relatórios transparentes revelam as limitações do modelo para adotar uma abordagem responsável para cada caso de uso.
Promovendo o desenvolvimento responsável
O Toolkit para IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.
Otimizado para o Google Cloud
Com os modelos Gemma no Google Cloud, é possível personalizar o modelo de acordo com suas necessidades específicas usando as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e otimizada para IA.
Como acelerar a pesquisa acadêmica com créditos do Google Cloud
O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surge dessa iniciativa.
Participe da comunidade
Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.