Modelos abertos do Gemma
Uma família de modelos abertos leves e de última geração criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini
Conheça a
Gemma 2
Reformulado para desempenho extraordinário e eficiência incomparável, o Gemma 2 otimiza a inferência ultrarrápida em diversos hardwares.
5 fotos
MMLU
O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.
25 tiros
ARC-C
O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).
5 fotos
GSM8K
O comparativo GSM8K testa a capacidade de um modelo de linguagem de resolver problemas de matemática do ensino fundamental que geralmente exigem várias etapas de raciocínio.
3 a 5 tiros
AGIEval
O comparativo de mercado AGIEval testa a inteligência geral de um modelo de linguagem usando questões derivadas de exames do mundo real, desenvolvidas para avaliar as habilidades intelectuais humanas.
3-shot, CoT
BBH
O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das habilidades dos modelos de linguagem atuais, testando os limites deles em vários domínios de raciocínio e compreensão.
3 fotos, F1
SOLTAR
O DROP é um comparativo de mercado de compreensão de leitura que exige raciocínio discreto sobre parágrafos.
5 tiros
Winogrande
O comparativo de mercado Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas de preenchimento de lacunas ambíguas com opções binárias, exigindo raciocínio generalizado de senso comum.
10 fotos
HellaSwag
O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.
4 fotos
MATH
O MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, resolução de problemas em várias etapas e a compreensão de conceitos matemáticos.
Zero-shot
ARC-e
O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.
Zero-shot
PIQA
O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar conhecimentos físicos comuns, respondendo a perguntas sobre interações físicas cotidianas.
Zero-shot
SIQA
O comparativo de mercado SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso comum social fazendo perguntas sobre as ações das pessoas e as implicações sociais delas.
Zero-shot
Boolq
O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder a perguntas "sim/não" que ocorrem naturalmente, testando a capacidade dos modelos de realizar tarefas de inferência de linguagem natural do mundo real.
5 fotos
TriviaQA
O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas/respostas-evidência.
5 fotos
NQ
O comparativo de NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos completos da Wikipédia, simulando cenários reais de resposta a perguntas.
passa@1
HumanEval
O comparativo do HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções dele passam em testes de unidade funcionais para problemas de programação.
3 fotos
MBPP
O comparativo de mercado MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco em conceitos de programação fundamentais e uso de bibliotecas padrão.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7 bi
LLAMA 3 (em inglês)
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7 bi
LLAMA 3
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
LLAMA 3
8B
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7B
LLAMA 3
8B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3
8 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7 bi
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bilhões
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27B
Gemma 1
2,5 bi
Gemma 2
2,6 bilhões
Mistral
7B
Gemma 1
7B
Gemma 2
9 bilhões
Gemma 2
27 bi
*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para saber mais sobre a performance com outras metodologias.
Família de modelos Gemma
Conheça nossas ferramentas
Guias de início rápido para desenvolvedores
Guias de início rápido para parceiros
Livro de receitas do Gemma
Conheça uma coleção de exemplos e receitas práticas que mostram o poder e a versatilidade do Gemma para tarefas como legenda de imagens com PaliGemma, geração de código com CodeGemma e criação de chatbots com modelos do Gemma ajustados.
Desenvolvimento de IA responsável
Responsabilidade desde a concepção
Pré-treinado com dados cuidadosamente selecionados e ajustado para garantir a segurança, ajudando a impulsionar o desenvolvimento de IA seguro e responsável com base nos modelos Gemma.
Avaliação robusta e transparente
A avaliação abrangente e os relatórios transparentes revelam as limitações do modelo para adotar uma abordagem responsável para cada caso de uso.
Promovendo o desenvolvimento responsável
O Toolkit para IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.
Otimizado para o Google Cloud
Com os modelos Gemma no Google Cloud, é possível personalizar o modelo de acordo com suas necessidades específicas usando as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e otimizada para IA.
Aceleração da pesquisa acadêmica com créditos do Google Cloud
O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos ansiosos para conferir as pesquisas inovadoras que vão surgir com essa iniciativa.
Participe da comunidade
Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.