Visão geral dos modelos Gemma

O Gemma é uma família de modelos abertos leves e de última geração, criados a partir da mesma pesquisa e tecnologia usada para criar os modelos do Gemini. Desenvolvida pelo Google DeepMind e por outras equipes do Google, a Gemma recebeu o nome em latim gemma, que significa "pedra preciosa". Os pesos do modelo Gemma são suportados por ferramentas para desenvolvedores que promovem inovação, colaboração e o uso responsável da inteligência artificial (IA).

Os modelos Gemma estão disponíveis para execução nos seus aplicativos e no seu hardware, dispositivos móveis ou serviços hospedados. Também é possível personalizar esses modelos usando técnicas de ajuste para que eles se destaquem na execução de tarefas importantes para você e seus usuários. Os modelos Gemma extraem inspiração e linhagem tecnológica da família de modelos Gemini e são criados para que a comunidade de desenvolvimento de IA amplie e avance.

É possível usar modelos Gemma para geração de texto. No entanto, também é possível ajustar esses modelos para se especializar na execução de tarefas específicas. Os modelos Gemma ajustados podem oferecer soluções de IA generativa mais direcionadas e eficientes. Confira nosso guia sobre como ajustar a LoRA e teste! Mal podemos esperar para ver o que você vai criar com a Gemma!

Esta documentação do desenvolvedor fornece uma visão geral dos modelos Gemma e guias de desenvolvimento disponíveis para saber como aplicá-los e ajustá-los para aplicativos específicos.

Tamanhos e recursos de modelos

Os modelos Gemma estão disponíveis em vários tamanhos para que você possa criar soluções de IA generativa com base nos seus recursos de computação disponíveis, nos recursos necessários e onde quer executá-los. Se você não souber por onde começar, teste o tamanho do parâmetro 2B para atender aos requisitos menores de recursos e ter mais flexibilidade na implantação do modelo.

Tamanho dos parâmetros Entrada Saída Versões ajustadas Plataformas pretendidas
2 bilhões Texto Texto
  • Pré-treinado
  • Instruções ajustadas
Dispositivos móveis e laptops
7 bi Texto Texto
  • Pré-treinado
  • Instruções ajustadas
Computadores desktop e pequenos servidores

Com o recurso de vários suportes do Keras 3.0, é possível executar esses modelos no TensorFlow, no JAX e no PyTorch ou até mesmo usar as implementações nativas do JAX (com base no framework FLAX) e PyTorch.

É possível fazer o download dos modelos Gemma em Modelos Kaggle (em inglês).

Modelos ajustados

É possível modificar o comportamento dos modelos Gemma com treinamento adicional para que o modelo tenha um desempenho melhor em tarefas específicas. Esse processo é chamado de ajuste do modelo e, embora essa técnica melhore a capacidade de um modelo de executar tarefas direcionadas, também pode fazer com que o modelo piore em outras tarefas. Por esse motivo, os modelos Gemma estão disponíveis nas versões ajustadas por instruções e pré-treinadas:

  • Pré-treinados: essas versões do modelo não são treinadas em tarefas ou instruções específicas além do conjunto de treinamento de dados principais do Gemma. Não implante esses modelos sem realizar alguns ajustes.
  • Ajuste por instruções: essas versões do modelo são treinadas com interações de linguagem humana e podem responder a entradas de conversa, de maneira semelhante a um chatbot.

Começar

Confira estes guias para começar a criar soluções com a Gemma: