Modelos abertos do Gemma
Uma família de modelos abertos, leves e modernos, criados com a mesma pesquisa e tecnologia usada para criar os modelos do Gemini
Conheça o
Gemma 2
Reformulado para desempenho extraordinário e eficiência incomparável, o Gemma 2 otimiza a inferência ultrarrápida em diversos hardwares.
5 tiros
MMLU
O comparativo de mercado de MMLU é um teste que mede a amplitude do conhecimento e da capacidade de resolução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.
25 tiros
ARC-C
O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).
5 tiros
GSM8K
O comparativo de mercado GSM8K testa a capacidade de um modelo de linguagem de resolver problemas matemáticos adequados à escola, que muitas vezes exigem várias etapas de raciocínio.
3 a 5 fotos
AGIEval
O comparativo de mercado AGIEval testa a inteligência geral de um modelo de linguagem usando questões derivadas de exames do mundo real, desenvolvidas para avaliar as habilidades intelectuais humanas.
3 shots, camarim
BBH
O comparativo de mercado BBH (BIG-Bench Hard) se concentra em tarefas consideradas além das capacidades dos modelos de linguagem atuais, testando seus limites em vários domínios de raciocínio e compreensão.
3-shot, F1
SOLTAR
O DROP é um comparativo de mercado de compreensão de leitura que requer raciocínio discreto ao longo de parágrafos.
5 tiros
Winogrande
O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas ambíguas de preenchimento de lacunas com opções binárias, exigindo um raciocínio comum generalizado.
10 fotos
HellaSwag
O comparativo da HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio de bom senso selecionando o final mais lógico para uma história.
4 fotos
MATEMÁTICA
A MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos, exigindo raciocínio, solução de problemas com várias etapas e a compreensão de conceitos matemáticos.
0 tacada
ARC-e
O comparativo de mercado ARC-e testa as habilidades avançadas de um modelo de linguagem para responder a perguntas com perguntas científicas genuínas do nível escolar e de múltipla escolha.
0 tacada
PIQA
O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas cotidianas.
0 tacada
SIQA
O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem sobre interações sociais e senso social comum fazendo perguntas sobre as ações das pessoas e suas implicações sociais.
0 tacada
Boolq
O comparativo do BoolQ testa a capacidade de um modelo de linguagem de responder perguntas do tipo "sim" ou "não" que ocorrem naturalmente e testa a capacidade do modelo de realizar tarefas de inferência de linguagem natural no mundo real.
5 tiros
TriviaQA
O comparativo de mercado TriviaQA testa as habilidades de compreensão de leitura com três perguntas: evidências de perguntas e respostas.
5 tiros
NQ
O comparativo de mercado NQ (perguntas naturais) testa a capacidade de um modelo de linguagem de encontrar e compreender respostas em artigos inteiros da Wikipédia, simulando cenários reais de respostas a perguntas.
passa@1
HumanEval
O comparativo do HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções dele passam em testes de unidade funcionais para problemas de programação.
3 fotos
MBPP
O comparativo do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco nos conceitos fundamentais de programação e no uso da biblioteca padrão.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
LLAMA 3 (em inglês)
8 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
Gemma 1
2,5 bi
Gemma 2
2,6 bi
Mistral
7 bi
Gemma 1
7 bi
Gemma 2
9 bilhões
Gemma 2
27 bi
*Esses são os comparativos de mercado para os modelos pré-treinados. Consulte o relatório técnico para detalhes sobre o desempenho com outras metodologias.
Família de modelos Gemma
Conheça nossas ferramentas
Guias de início rápido para desenvolvedores
Guias de início rápido para parceiros
Manual do Gemma
Conheça uma coleção de receitas e exemplos práticos que mostram o poder e a versatilidade do Gemma para tarefas como legendagem de imagens com o PaliGemma, geração de código com o CodeGemma e criação de chatbots com modelos Gemma ajustados.
Desenvolvimento de IA responsável
Responsabilidade desde a concepção
Pré-treinados em dados cuidadosamente selecionados e ajustados para segurança no topo, ajudando a capacitar o desenvolvimento de IA seguro e responsável com base com modelos Gemma.
Avaliação robusta e transparente
Avaliações abrangentes e relatórios transparentes revelam as limitações do modelo para a adoção de uma abordagem responsável em cada caso de uso.
Promovendo o desenvolvimento responsável
O kit de ferramentas de IA generativa responsável ajuda desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.
Otimizado para o Google Cloud
Com os modelos Gemma no Google Cloud, é possível personalizar em detalhes o modelo de acordo com suas necessidades específicas com as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura flexível e econômica otimizada por IA.
Aceleração da pesquisa acadêmica com créditos do Google Cloud
O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição do programa, concedendo créditos ao Google Cloud para apoiar pesquisadores que estão expandindo os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surge dessa iniciativa.
Participe da comunidade
Conecte, teste e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.