Alinhamento do modelo

Criar um comando para um modelo de inteligência artificial (IA), como o Gemini ou Gemma, capturar perfeitamente uma intenção pode ser uma tarefa não trivial. Muitas vezes, é necessário escrever um comando à mão e testá-lo em vários casos de uso para para garantir que ela atenda às suas necessidades. Com base nos resultados, você pode fazer atualizações direcionadas ao comando: mudar algumas palavras em um lugar, adicionar uma nova frase em outro. Esse processo não é muito confiável e pode não gerar os melhores resultados.

O Google desenvolveu um método que usa LLMs para atualizar automaticamente um modelo de comando com base no feedback que você fornece sobre a saída do modelo em linguagem simples. Seu feedback, junto com o comando e a saída do modelo, são enviados a um LLM que atualiza o comando para que ele se alinhe melhor ao comportamento esperado.

Esse método está disponível de duas maneiras:

  • A biblioteca model-alignment de código aberto para Python permite essa abordagem em seu software e fluxos de trabalho.
  • Uma versão dessa abordagem é integrada à Vertex AI Studio, permitindo que você use esse fluxo de trabalho com apenas alguns cliques.

Biblioteca de código aberto

Alinhamento de modelo é uma biblioteca Python de código aberto, lançada como uma pacote em PyPI que permite o alinhamento de comandos de humanos feedback por uma API. A biblioteca é baseada em nossa pesquisa de atualização com feedback humano e criação automática de classificadores usando dados rotulados.

Criar modelos de comando para o Gemma usando a biblioteca Model Alignment

Iniciar o Google Colab

Essa biblioteca oferece suporte a dois fluxos de trabalho para atualização automática de modelos de comandos:

  1. Atualizações iterativas de princípios. Esse fluxo de trabalho usa um LLM para destilar diretrizes de críticas indiretas da saída do modelo ou de edições diretas da saída do modelo. É possível criar de forma iterativa uma ou mais diretrizes antes de enviá-las ao LLM, que atualiza o modelo de comando para aderir a essas diretrizes. Você também pode selecionar diretrizes manualmente e incluí-las com as destiladas pelo LLM.
  2. Crítica direta das saídas do modelo. Esse fluxo de trabalho recebe seu feedback sobre a saída do modelo inteiro e o alimenta, junto com a saída do comando e do modelo, diretamente no LLM para gerar um modelo de comando atualizado.

Esses dois fluxos de trabalho podem ser úteis para sua aplicação. A principal desvantagem é a presença de diretrizes, que podem ser um artefato de processo útil e concreto que pode ajudar a informar, por exemplo, sua abordagem de transparência.

Fluxograma de alinhamento do modelo

Figura 1. Este fluxograma ilustra onde e como os dois fluxos de trabalho da biblioteca Model Alignment divergem para permitir atualizações diretas ou orientadas por diretrizes nos modelos de comando. O processo é iterativo, e esses fluxos de trabalho são mutuamente exclusivos, é possível alternar entre eles a qualquer momento.

Confira o notebook do Colab que usa o Gemini para alinhar instruções para o Gemma 2 usando os dois fluxos de trabalho.

Alinhamento no Vertex AI Studio

O Vertex AI Studio do Google adicionou o recurso "refine prompt" com base no fluxo de trabalho direto da biblioteca de código aberto Model Alignment para complementar as ferramentas de criação, execução, avaliação e comparação.

Depois de executar um comando, você pode enviar feedback sobre como o modelo deve se comportar de maneira diferente. O Vertex AI Studio usa o Gemini para elaborar uma reescrita. Você pode aceitar as mudanças propostas e executar novamente o comando atualizado com um clique em um botão ou atualizar seu feedback e pedir para o Gemini criar outro candidato.

Alinhamento de modelos no Vertex AI Studio

Figura 2. O recurso "refine prompt" do Vertex AI Studio sendo usado para atualizar um comando com base no feedback do usuário.

Conheça o alinhamento de modelos:

  • Execute este bloco do Colab (em inglês) que usa o Gemini para alinhar várias comandos para nosso modelo Gemma 2 de pesos abertos usando ambas as abordagens de alinhamento.
  • Teste o recurso de alinhamento de modelo "refine prompt" no Vertex AI Studio.