Como fazer ajustes com a API Gemini

Estratégias de design de comandos, como comandos de poucos disparos (few-shot), nem sempre produzem os resultados necessários. O ajuste é um processo que pode melhorar a desempenho em tarefas específicas ou ajudar o modelo a aderir a resultados quando as instruções não são suficientes e você tem um conjunto de exemplos que demonstrem os resultados desejados.

Esta página fornece uma visão geral conceitual do ajuste do modelo de texto por trás o serviço de texto da API Gemini. Quando estiver tudo pronto para começar o ajuste, teste o tutorial de ajuste. Se você quiser uma introdução mais geral à personalização de LLMs para casos de uso específicos, confira LLMs: ajuste fino, destilação e engenharia de comando no Curso intensivo de machine learning.

Como funciona o ajuste

O objetivo do ajuste é melhorar ainda mais o desempenho do modelo para para a tarefa específica. O ajuste fino funciona fornecendo ao modelo um conjunto de dados de treinamento que contém muitos exemplos da tarefa. Para tarefas de nicho, é possível conseguir melhorias significativas no desempenho do modelo ajustando o modelo em um número modesto de exemplos. Esse tipo de ajuste de modelo é chamado ajustes supervisionados para distingui-los de outros tipos de ajustes.

Os dados de treinamento precisam ser estruturados como exemplos com entradas de comandos as saídas esperadas de resposta. Também é possível ajustar modelos usando dados de exemplo diretamente no Google AI Studio. O objetivo é ensinar o modelo a imitar o comportamento desejado ou tarefa, fornecendo muitos exemplos que ilustram esse comportamento ou tarefa.

Ao executar um job de ajuste, o modelo aprende outros parâmetros que o ajudam a codificar as informações necessárias para executar a tarefa desejada ou aprender o comportamento desejado. Esses parâmetros podem ser usados no momento da inferência. A saída do o job de ajuste é um novo modelo, que é uma combinação da nova parâmetros aprendidos e o modelo original.

Preparar o conjunto de dados

Antes de começar o ajuste, você precisa de um conjunto de dados para ajustar o modelo. Para o melhor desempenho, os exemplos no conjunto de dados devem ser de alta qualidade, diversificados e representativos de entradas e saídas reais.

Formato

Os exemplos no seu conjunto de dados precisam corresponder ao tráfego de produção esperado. Se o conjunto de dados contiver formatação, palavras-chave, instruções ou informações específicas, os dados de produção deverão ser formatados da mesma maneira e conter as mesmas instruções.

Por exemplo, se os exemplos no seu conjunto de dados incluem um "question:" e um "context:", o tráfego de produção também deve ser formatado para incluir um "question:" e um "context:" na mesma ordem em que aparece no exemplos de conjuntos de dados. Se você excluir o contexto, o modelo não reconhecerá o padrão, mesmo que a pergunta exata esteja em um exemplo no conjunto de dados.

Como outro exemplo, aqui estão os dados de treinamento do Python para um aplicativo que gera o próximo número em uma sequência:

training_data = [
  {"text_input": "1", "output": "2"},
  {"text_input": "3", "output": "4"},
  {"text_input": "-3", "output": "-2"},
  {"text_input": "twenty two", "output": "twenty three"},
  {"text_input": "two hundred", "output": "two hundred one"},
  {"text_input": "ninety nine", "output": "one hundred"},
  {"text_input": "8", "output": "9"},
  {"text_input": "-98", "output": "-97"},
  {"text_input": "1,000", "output": "1,001"},
  {"text_input": "10,100,000", "output": "10,100,001"},
  {"text_input": "thirteen", "output": "fourteen"},
  {"text_input": "eighty", "output": "eighty one"},
  {"text_input": "one", "output": "two"},
  {"text_input": "three", "output": "four"},
  {"text_input": "seven", "output": "eight"},
]

Adicionar um comando ou preâmbulo a cada exemplo no conjunto de dados também pode ajudar a melhorar o desempenho do modelo ajustado. Se um comando ou preâmbulo for incluído no seu conjunto de dados, ele também precisará ser incluído no comando para o modelo sintonizado no momento da inferência.

Limitações

Observação: os conjuntos de dados de ajuste fino para o Gemini 1.5 Flash têm as seguintes limitações:

  • O tamanho máximo de entrada por exemplo é de 40.000 caracteres.
  • O tamanho máximo da saída por exemplo é de 5.000 caracteres.

Tamanho dos dados de treinamento

É possível ajustar um modelo com apenas 20 exemplos. Dados adicionais melhora a qualidade das respostas. Você deve ter entre 100 e 500 exemplos, dependendo do seu aplicativo. A tabela a seguir mostra tamanhos de conjuntos de dados recomendados para ajustar um modelo de texto para várias tarefas comuns:

Tarefa Nº de exemplos no conjunto de dados
Classificação 100+
Resumo 100-500+
Pesquisa de documentos 100+

Fazer upload do conjunto de dados de ajuste

Os dados são transmitidos inline usando a API ou por meio de arquivos enviados ao Google do Vertex AI Studio.

Para usar a biblioteca de cliente, forneça o arquivo de dados na chamada createTunedModel. O arquivo pode ter até 4 MB. Consulte a Guia de início rápido de ajuste com Python para começar.

Para chamar a API REST usando cURL, dê exemplos de treinamento no formato JSON à argumento training_data. Consulte o guia de início rápido de ajuste com o cURL para começar.

Configurações de ajuste avançadas

Ao criar um job de ajuste, é possível especificar as seguintes configurações avançadas:

  • Períodos: uma passagem de treinamento completa por todo o conjunto de treinamento, de modo que cada exemplo seja processado uma vez.
  • Tamanho do lote: o conjunto de exemplos usado em uma iteração de treinamento. O tamanho do lote determina o número de exemplos em um lote.
  • Taxa de aprendizado: um número de ponto flutuante que informa ao algoritmo como ajustar os parâmetros do modelo em cada iteração. Por exemplo, uma taxa de aprendizado de 0,3 ajustaria os pesos e os vieses três vezes mais muito mais do que uma taxa de aprendizado de 0,1. As taxas de aprendizado altas e baixas têm suas próprias compensações e precisam ser ajustadas com base no seu caso de uso.
  • Multiplicador da taxa de aprendizado: o multiplicador de taxa modifica a taxa de aprendizado original do modelo. Um valor de 1 usa a taxa de aprendizado original do modelo. Valores maiores que 1 aumentam a taxa de aprendizado e valores entre 1 e 0 diminui a taxa de aprendizado.

A tabela a seguir mostra as configurações recomendadas para ajustar um modelo de base:

Hiperparâmetro Valor padrão Ajustes recomendados
Período 5

Se a perda começar a se estabilizar antes de 5 épocas, use um valor menor.

Se a perda estiver convergindo e não parecer ter um platô, use um valor mais alto.

Tamanho do lote 4
Taxa de aprendizado 0,001 Use um valor menor para conjuntos de dados menores.

A curva de perda mostra o quanto a previsão do modelo se desvia das previsões ideais nos exemplos de treinamento após cada época. O ideal é interromper o treinamento no ponto mais baixo da curva, logo antes de ele atingir o platô. Por exemplo, o gráfico abaixo mostra a curva de perda estabilizando-se na época 4-6, o que significa que você pode definir o parâmetro Epoch como 4 e ainda ter o mesmo desempenho.

Gráfico de linhas mostrando a curva de perda do modelo. A linha atinge o pico entre o
na primeira e na segunda épocas, depois diminui drasticamente para quase 0 e nivela
após três períodos.

Verificar o status do job de ajuste

É possível verificar o status do job de ajuste no Google AI Studio na guia My Library ou usando a propriedade metadata do modelo ajustado na API Gemini.

Solucionar erros

Esta seção inclui dicas sobre como resolver erros que podem ocorrer ao criar o modelo ajustado.

Autenticação

O ajuste usando a API e a biblioteca de cliente requer autenticação. É possível configurar a autenticação usando uma chave de API (recomendado) ou credenciais OAuth. Para acessar a documentação sobre como configurar uma chave de API, consulte Configure a chave de API.

Se você receber um erro 'PermissionDenied: 403 Request had insufficient authentication scopes', talvez seja necessário configurar a autenticação do usuário usando credenciais do OAuth. Para configurar as credenciais do OAuth no Python, acesse nosso tutorial de configuração do OAuth.

Modelos cancelados

É possível cancelar um job de ajuste fino a qualquer momento antes da conclusão. No entanto, o desempenho de inferência de um modelo cancelado é imprevisível, especialmente se o job de ajuste é cancelado no início do treinamento. Se você cancelou porque quer interromper o treinamento em uma época anterior, crie um novo job de ajuste e defina a época como um valor menor.

Limitações dos modelos ajustados

Observação:modelos ajustados têm as seguintes limitações:

  • O limite de entrada de um modelo Gemini 1.5 Flash ajustado é de 40.000 caracteres.
  • O modo JSON não é compatível com modelos ajustados.
  • Somente a entrada de texto é aceita.

A seguir

Comece a usar os tutoriais de ajuste fino: