Modelos abertos da Gemma
Uma família de modelos abertos leves e modernos, criados a partir da mesma pesquisa e tecnologia usada para criar os modelos do Gemini
Responsabilidade desde a concepção
Incorporando medidas de segurança abrangentes, esses modelos ajudam a garantir soluções de IA responsáveis e confiáveis com conjuntos de dados selecionados e ajustes rigorosos.
Desempenho incomparável em tamanho
Os modelos Gemma alcançam resultados de referência excepcionais nos tamanhos 2B e 7B, superando até mesmo alguns modelos abertos maiores.
Framework flexível
Com o Keras 3.0, você tem total compatibilidade com JAX, TensorFlow e PyTorch, podendo escolher e alternar entre frameworks sem dificuldades de acordo com sua tarefa.
Variantes do modelo Gemma
Guias de início rápido para desenvolvedores
Guias de início rápido para parceiros
Mais guias de parceiros em breve
Comparativos de mercado
A Gemma define um novo padrão de desempenho em termos de tamanho em comparação com modelos populares como Llama 2 e Mistral 7B.
5 rebatidas, top-1
MMLU
O comparativo de MMLU é um teste que mede a amplitude de conhecimento e capacidade de solução de problemas adquiridos por modelos de linguagem grandes durante o pré-treinamento.
0 tiro
HellaSwag
O comparativo de mercado HellaSwag desafia a capacidade de um modelo de linguagem de entender e aplicar o raciocínio pelo bom senso selecionando o final mais lógico para uma história.
0 tiro
PIQA
O comparativo de mercado PIQA testa a capacidade de um modelo de linguagem de entender e aplicar o conhecimento físico de senso comum respondendo a perguntas sobre interações físicas diárias.
0 tiro
SIQA
O comparativo de mercado do SIQA avalia a compreensão de um modelo de linguagem das interações sociais e do senso comum social, fazendo perguntas sobre as ações das pessoas e suas implicações sociais.
0 tiro
Boolq
O comparativo de mercado do BoolQ testa a capacidade de um modelo de linguagem de responder a perguntas de sim/não que ocorrem naturalmente (geradas em configurações não solicitadas e não restritas), testando a capacidade do modelo de realizar tarefas de inferência de linguagem natural do mundo real.
pontuação parcial
Winogrande
O comparativo de Winogrande testa a capacidade de um modelo de linguagem de resolver tarefas de preenchimento ambíguo com opções binárias, exigindo um raciocínio generalizado com bom senso.
7 tiros
CQA
O comparativo de mercado do CQA avalia o desempenho de modelos de linguagem nas perguntas de múltipla escolha, exigindo diferentes tipos de conhecimento de bom senso.
OBQA
O comparativo de mercado da OBQA avalia a capacidade de um modelo de linguagem de responder a perguntas avançadas com raciocínio em várias etapas, conhecimento de senso comum e compreensão de rich text, modelados após exames de livros abertos.
ARC-E
O comparativo de mercado ARC-e testa as habilidades avançadas para responder a perguntas de um modelo de linguagem com questões de múltipla escolha genuínas de ensino fundamental e médio.
ARC-C
O comparativo de mercado do ARC-c é um subconjunto mais focado do conjunto de dados do ARC-e, contendo apenas perguntas respondidas incorretamente por algoritmos comuns (base de recuperação e coocorrência de palavras).
5 tiros
TriviaQA
O comparativo de mercado do TriviaQA testa as habilidades de compreensão de leitura com três evidências de perguntas e respostas.
passe@1
HumanEval
O comparativo de mercado da HumanEval testa as habilidades de geração de código de um modelo de linguagem avaliando se as soluções passam em testes de unidade funcionais para problemas de programação.
3 tiros
MBPP
O comparativo de mercado do MBPP testa a capacidade de um modelo de linguagem de resolver problemas básicos de programação em Python, com foco em conceitos fundamentais de programação e no uso da biblioteca padrão.
maj@1
GSM8K
O comparativo de mercado do GSM8K testa a capacidade de um modelo de linguagem de resolver problemas de matemática no nível escolar que frequentemente exigem várias etapas de raciocínio.
4 tiros
MATH
O parâmetro MATH avalia a capacidade de um modelo de linguagem de resolver problemas matemáticos complexos matemáticos, exigindo raciocínio, resolução de problemas com várias etapas e compreensão de conceitos matemáticos.
AGIEval
O comparativo de mercado do AGIEval testa a inteligência geral de um modelo de linguagem usando perguntas derivadas de exames do mundo real, projetados para avaliar as habilidades intelectuais humanas (exames de admissão a faculdades, exames de direito etc.).
BH
O comparativo de mercado de BBH (Big-Bench Hard) concentra-se em tarefas consideradas além das capacidades dos modelos de linguagem atuais, testando seus limites em vários domínios de raciocínio e compreensão.
100%
75%
50%
25%
0%
100%
75%
50%
25%
0%
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
Gemma
7 bi
Gemma
2b
Mistral
7 bi
LLAMA-2
13 bi
LLAMA-2
7 bi
*Consulte o relatório técnico para ver detalhes sobre o desempenho com outras metodologias
Acesse o Gemma hoje mesmo
Os modelos Gemma estão disponíveis em todos os seus hubs de modelos favoritos.
Desenvolvimento de IA responsável
Responsabilidade desde a concepção
Pré-treinados com dados cuidadosamente selecionados e ajustados para garantir a segurança, ajudando a capacitar o desenvolvimento de IA seguro e responsável com base em modelos Gemma.
Avaliação robusta e transparente
Avaliações abrangentes e relatórios transparentes revelam limitações de modelos para a adoção de uma abordagem responsável em cada caso de uso.
Impulsionar o desenvolvimento responsável
O kit de ferramentas de IA generativa responsável ajuda os desenvolvedores a projetar e implementar as práticas recomendadas de IA responsável.
Otimizado para o Google Cloud
Com modelos Gemma no Google Cloud, é possível personalizar profundamente o modelo de acordo com suas necessidades específicas com as ferramentas totalmente gerenciadas da Vertex AI ou a opção autogerenciada do GKE e implantá-lo em uma infraestrutura otimizada por IA flexível e econômica.
Acelerando a pesquisa acadêmica com créditos do Google Cloud
O Programa de Pesquisa Acadêmica concluiu recentemente o período de inscrição, concedendo créditos do Google Cloud para apoiar pesquisadores que quebram os limites da descoberta científica usando modelos Gemma. Estamos animados para ver a pesquisa inovadora que surgirá dessa iniciativa.
Participe da comunidade
Conecte-se, explore e compartilhe seu conhecimento com outras pessoas na comunidade de modelos de ML.
Crie o melhor assistente de IA para engenheiros de ML
A Kaggle está organizando uma competição desafiando participantes a usar modelos Gemma para criar os melhores assistentes de IA para tarefas de engenharia de ML. Os vencedores serão anunciados no Google I/O.
Participe da competição