PaLM (deprecated)

Método: models.generateText

Gera uma resposta do modelo que recebe uma mensagem de entrada.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parâmetros de caminho

model string

Obrigatório. O nome da Model ou da TunedModel que será usada para gerar a conclusão. Exemplos: models/text-bison-001 relativosModels/sentence-translator-u3b7m. Ele assume o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
prompt object (TextPrompt)

Obrigatório. O texto de entrada de formato livre dado ao modelo como um comando.

Dado um comando, o modelo vai gerar uma resposta de TextComplete que ele prevê como a conclusão do texto de entrada.

safetySettings[] object (SafetySetting)

Opcional. Uma lista de instâncias SafetySetting exclusivas para bloquear conteúdo não seguro.

que será aplicada no GenerateTextRequest.prompt e no GenerateTextResponse.candidates. Não pode haver mais de uma configuração para cada tipo de SafetyCategory. A API vai bloquear todos os comandos e respostas que não atenderem aos limites definidos por essas configurações. Essa lista substitui as configurações padrão de cada SafetyCategory especificada em safetySettings. Se não houver SafetySetting para um determinado SafetyCategory fornecido na lista, a API vai usar a configuração de segurança padrão para essa categoria. As categorias de dano HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS são compatíveis com o serviço de texto.

stopSequences[] string

O conjunto de sequências de caracteres (até 5) que vai interromper a geração de saída. Se especificado, a API vai parar na primeira aparição de uma sequência de paradas. A sequência de parada não será incluída como parte da resposta.

temperature number

Opcional. Controla a aleatoriedade da saída. Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.temperature do Model que retornou a função getModel.

Os valores podem variar de [0,0, 1,0], inclusive. Um valor mais próximo de 1,0 produz respostas mais variadas e criativas, enquanto um valor próximo de 0,0 normalmente resulta em respostas mais diretas do modelo.

candidateCount integer

Opcional. Número de respostas geradas a serem retornadas.

Esse valor precisa estar entre [1, 8]. Se não for definido, o padrão será 1.

maxOutputTokens integer

Opcional. O número máximo de tokens a serem incluídos em um candidato.

Se não for definido, o padrão será outputTokenLimit especificado na especificação Model.

topP number

Opcional. A probabilidade cumulativa máxima dos tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

Os tokens são classificados com base nas probabilidades atribuídas, de modo que apenas os tokens mais prováveis sejam considerados. A amostragem top-k limita diretamente o número máximo de tokens a serem considerados, enquanto a amostragem do Nucleus limita o número de tokens com base na probabilidade cumulativa.

Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_p do Model que retornou a função getModel.

topK integer

Opcional. O número máximo de tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

A amostragem top-k considera o conjunto de topK tokens mais prováveis. O padrão é 40.

Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_k do Model que retornou a função getModel.

Corpo da resposta

Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de GenerateTextResponse.

Método: models.countTextTokens

Executa o tokenizador de um modelo em um texto e retorna a contagem de tokens.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parâmetros de caminho

model string

Obrigatório. O nome do recurso do modelo. Isso serve como um ID a ser usado pelo modelo.

Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list.

Formato: models/{model}. Ele assume o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
prompt object (TextPrompt)

Obrigatório. O texto de entrada de formato livre dado ao modelo como um comando.

Corpo da resposta

Resposta de models.countTextTokens.

Ele retorna o tokenCount do modelo para o prompt.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
tokenCount integer

O número de tokens em que model tokeniza o prompt.

Sempre não negativo.

Representação JSON
{
  "tokenCount": integer
}

Método: models.generateMessage

Gera uma resposta do modelo que recebe uma entrada MessagePrompt.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parâmetros de caminho

model string

Obrigatório. O nome do modelo a ser usado.

Formato: name=models/{model}. Ele tem o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
prompt object (MessagePrompt)

Obrigatório. A entrada textual estruturada dada ao modelo como um comando.

Dado um comando, o modelo retorna o que prevê ser a próxima mensagem da discussão.

temperature number

Opcional. Controla a aleatoriedade da saída.

Os valores podem variar acima de [0.0,1.0], inclusive. Um valor mais próximo de 1.0 produz respostas mais variadas, enquanto um valor mais próximo de 0.0 normalmente resulta em respostas menos surpreendentes do modelo.

candidateCount integer

Opcional. O número de mensagens de resposta geradas a serem retornadas.

Esse valor precisa estar entre [1, 8]. Se não for definido, o padrão será 1.

topP number

Opcional. A probabilidade cumulativa máxima dos tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

A amostragem de núcleos considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP.

topK integer

Opcional. O número máximo de tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

A amostragem top-k considera o conjunto de topK tokens mais prováveis.

Corpo da resposta

A resposta do modelo.

Isso inclui as mensagens dos candidatos e o histórico de conversas na forma de mensagens em ordem cronológica.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
candidates[] object (Message)

Mensagens de resposta do candidato do modelo.

messages[] object (Message)

O histórico de conversas usado pelo modelo.

filters[] object (ContentFilter)

Um conjunto de metadados de filtragem de conteúdo para o texto do comando e da resposta.

Isso indica quais SafetyCategory(s) bloquearam um candidato dessa resposta, o menor HarmProbability que acionou um bloqueio e a configuração HarmThreshold dessa categoria.

Representação JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Método: models.countMessageTokens

Executa o tokenizador de um modelo em uma string e retorna a contagem de tokens.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parâmetros de caminho

model string

Obrigatório. O nome do recurso do modelo. Isso serve como um ID a ser usado pelo modelo.

Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list.

Formato: models/{model}. Ele assume o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
prompt object (MessagePrompt)

Obrigatório. O comando cuja contagem de tokens será retornada.

Corpo da resposta

Resposta de models.countMessageTokens.

Ele retorna o tokenCount do modelo para o prompt.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
tokenCount integer

O número de tokens em que model tokeniza o prompt.

Sempre não negativo.

Representação JSON
{
  "tokenCount": integer
}

Método: models.embedText

Gera um embedding do modelo recebido com uma mensagem de entrada.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parâmetros de caminho

model string

Obrigatório. O nome do modelo a ser usado com o formato model=models/{model}. Ele tem o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
text string

Opcional. O texto de entrada de formato livre que o modelo vai transformar em um embedding.

Corpo da resposta

A resposta a uma EmbedTextRequest.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
embedding object (Embedding)

Apenas saída. O embedding gerado do texto de entrada.

Representação JSON
{
  "embedding": {
    object (Embedding)
  }
}

Método: models.batchEmbedText

Gera vários embeddings do modelo com base no texto de entrada fornecido em uma chamada síncrona.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parâmetros de caminho

model string

Obrigatório. O nome do Model que será usado para gerar o embedding. Exemplos: models/embedding-gecko-001. Ele assume o formato models/{model}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
texts[] string

Opcional. Os textos de entrada de formato livre que o modelo vai transformar em embedding. O limite atual é de 100 textos, em que será gerado um erro.

requests[] object (EmbedTextRequest)

Opcional. Incorpore solicitações para o lote. Só é possível definir texts ou requests.

Corpo da resposta

A resposta a uma EmbedTextRequest.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
embeddings[] object (Embedding)

Apenas saída. Os embeddings gerados a partir do texto de entrada.

Representação JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Solicitação para receber um embedding de texto do modelo.

Representação JSON
{
  "model": string,
  "text": string
}
.
Campos
model string

Obrigatório. O nome do modelo a ser usado com o formato model=models/{model}.

text string

Opcional. O texto de entrada de formato livre que o modelo vai transformar em um embedding.

Método: tuningModels.generateText

Gera uma resposta do modelo que recebe uma mensagem de entrada.

Endpoint

postar https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parâmetros de caminho

model string

Obrigatório. O nome da Model ou da TunedModel que será usada para gerar a conclusão. Exemplos: models/text-bison-001 relativosModels/sentence-translator-u3b7m. Ele assume o formato tunedModels/{tunedmodel}.

Corpo da solicitação

O corpo da solicitação contém dados com a seguinte estrutura:

Campos
prompt object (TextPrompt)

Obrigatório. O texto de entrada de formato livre dado ao modelo como um comando.

Dado um comando, o modelo vai gerar uma resposta de TextComplete que ele prevê como a conclusão do texto de entrada.

safetySettings[] object (SafetySetting)

Opcional. Uma lista de instâncias SafetySetting exclusivas para bloquear conteúdo não seguro.

que será aplicada no GenerateTextRequest.prompt e no GenerateTextResponse.candidates. Não pode haver mais de uma configuração para cada tipo de SafetyCategory. A API vai bloquear todos os comandos e respostas que não atenderem aos limites definidos por essas configurações. Essa lista substitui as configurações padrão de cada SafetyCategory especificada em safetySettings. Se não houver SafetySetting para um determinado SafetyCategory fornecido na lista, a API vai usar a configuração de segurança padrão para essa categoria. As categorias de dano HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS são compatíveis com o serviço de texto.

stopSequences[] string

O conjunto de sequências de caracteres (até 5) que vai interromper a geração de saída. Se especificado, a API vai parar na primeira aparição de uma sequência de paradas. A sequência de parada não será incluída como parte da resposta.

temperature number

Opcional. Controla a aleatoriedade da saída. Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.temperature do Model que retornou a função getModel.

Os valores podem variar de [0,0, 1,0], inclusive. Um valor mais próximo de 1,0 produz respostas mais variadas e criativas, enquanto um valor próximo de 0,0 normalmente resulta em respostas mais diretas do modelo.

candidateCount integer

Opcional. Número de respostas geradas a serem retornadas.

Esse valor precisa estar entre [1, 8]. Se não for definido, o padrão será 1.

maxOutputTokens integer

Opcional. O número máximo de tokens a serem incluídos em um candidato.

Se não for definido, o padrão será outputTokenLimit especificado na especificação Model.

topP number

Opcional. A probabilidade cumulativa máxima dos tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

Os tokens são classificados com base nas probabilidades atribuídas, de modo que apenas os tokens mais prováveis sejam considerados. A amostragem top-k limita diretamente o número máximo de tokens a serem considerados, enquanto a amostragem do Nucleus limita o número de tokens com base na probabilidade cumulativa.

Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_p do Model que retornou a função getModel.

topK integer

Opcional. O número máximo de tokens a serem considerados na amostragem.

O modelo usa amostragem combinada de Top-K e Núcleo.

A amostragem top-k considera o conjunto de topK tokens mais prováveis. O padrão é 40.

Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_k do Model que retornou a função getModel.

Corpo da resposta

Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de GenerateTextResponse.

ContentFilter

Metadados de filtragem de conteúdo associados ao processamento de uma única solicitação.

O ContentFilter contém um motivo e uma string de suporte opcional. O motivo pode não ser especificado.

Representação JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
.
Campos
reason enum (BlockedReason)

O motivo pelo qual o conteúdo foi bloqueado durante o processamento da solicitação.

message string

Uma string que descreve o comportamento de filtragem com mais detalhes.

BlockedReason

Uma lista de motivos pelos quais o conteúdo pode ter sido bloqueado.

Enums
BLOCKED_REASON_UNSPECIFIED O motivo do bloqueio não foi especificado.
SAFETY O conteúdo foi bloqueado pelas configurações de segurança.
OTHER O conteúdo foi bloqueado, mas o motivo não foi categorizado.

Incorporação

Uma lista de pontos flutuantes que representam o embedding.

Representação JSON
{
  "value": [
    number
  ]
}
.
Campos
value[] number

Os valores de embedding.

Mensagem

A unidade base do texto estruturado.

Um Message inclui um author e o content do Message.

O author é usado para marcar mensagens quando elas são inseridas no modelo como texto.

Representação JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
.
Campos
author string

Opcional. O autor desta mensagem.

Isso serve como uma chave para marcar o conteúdo dessa mensagem quando ela é fornecida ao modelo como texto.

O autor pode ser qualquer string alfanumérica.

content string

Obrigatório. O conteúdo de texto do Message estruturado.

citationMetadata object (CitationMetadata)

Apenas saída. Informações de citação para content gerado pelo modelo neste Message.

Se esse Message tiver sido gerado como saída do modelo, esse campo poderá ser preenchido com informações de atribuição para qualquer texto incluído na content. Este campo é usado apenas na saída.

MessagePrompt

Todo o texto de entrada estruturado transmitido ao modelo como um comando.

Uma MessagePrompt contém um conjunto estruturado de campos que fornecem contexto para a conversa, exemplos de pares de mensagens de entrada/modelo de saída do usuário que preparam o modelo para responder de diferentes maneiras e o histórico de conversas ou a lista de mensagens que representam as rodadas alternadas da conversa entre o usuário e o modelo.

Representação JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
.
Campos
context string

Opcional. Texto que deve ser fornecido ao modelo primeiro para fundamentar a resposta.

Se não estiver vazio, este context será dado ao modelo primeiro antes de examples e messages. Ao usar um context, forneça-o a todas as solicitações para manter a continuidade.

Esse campo pode ser uma descrição do comando para o modelo, o que ajuda a fornecer contexto e orientar as respostas. Exemplos: "Traduza a frase do português para o francês". ou "Com uma declaração, classifique o sentimento como feliz, triste ou neutro".

Qualquer item incluído nesse campo terá precedência sobre o histórico de mensagens se o tamanho total da entrada exceder o inputTokenLimit do modelo e a solicitação estiver truncada.

examples[] object (Example)

Opcional. Exemplos do que o modelo deve gerar.

Isso inclui a entrada do usuário e a resposta que o modelo deve emular.

Essas examples são tratadas de forma idêntica às mensagens de conversa, exceto pelo fato de terem precedência sobre o histórico de messages: se o tamanho total da entrada exceder o inputTokenLimit do modelo, a entrada será truncada. Os itens serão removidos de messages antes de examples.

messages[] object (Message)

Obrigatório. Um resumo do histórico de conversas recentes em ordem cronológica.

Alterna entre dois autores.

Se o tamanho total da entrada exceder o inputTokenLimit do modelo, a entrada será truncada: os itens mais antigos serão descartados de messages.

Exemplo

Um exemplo de entrada/saída usado para instruir o modelo.

Ele demonstra como o modelo deve responder ou formatar a resposta.

Representação JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
.
Campos
input object (Message)

Obrigatório. Um exemplo de entrada Message do usuário.

output object (Message)

Obrigatório. Um exemplo da saída do modelo com base na entrada.

GenerateTextResponse

A resposta do modelo, incluindo conclusões candidatas.

Representação JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
.
Campos
candidates[] object (TextCompletion)

Respostas dos candidatos do modelo.

filters[] object (ContentFilter)

Um conjunto de metadados de filtragem de conteúdo para o texto do comando e da resposta.

Isso indica quais SafetyCategory(s) bloquearam um candidato dessa resposta, o menor HarmProbability que acionou um bloqueio e a configuração HarmThreshold dessa categoria. Isso indica a menor mudança no SafetySettings necessária para desbloquear pelo menos uma resposta.

O bloqueio é configurado pelo SafetySettings na solicitação (ou pelo SafetySettings padrão da API).

safetyFeedback[] object (SafetyFeedback)

Retorna qualquer feedback de segurança relacionado à filtragem de conteúdo.

TextCompletion

Texto de saída retornado de um modelo.

Representação JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
.
Campos
output string

Apenas saída. O texto gerado retornado do modelo.

safetyRatings[] object (SafetyRating)

Classificações para a segurança de uma resposta.

Existe no máximo uma classificação por categoria.

citationMetadata object (CitationMetadata)

Apenas saída. Informações de citação para output gerado pelo modelo neste TextCompletion.

Esse campo pode ser preenchido com informações de atribuição para qualquer texto incluído no output.

SafetyFeedback

Feedback de segurança para uma solicitação inteira.

Esse campo será preenchido se o conteúdo na entrada e/ou resposta estiver bloqueado devido a configurações de segurança. SafetyFeedback pode não existir para cada HarmCategory. Cada SafetyFeedback retornará as configurações de segurança usadas pela solicitação, bem como a menor HarmProbability permitida para retornar um resultado.

Representação JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
.
Campos
rating object (SafetyRating)

Classificação de segurança avaliada com base no conteúdo.

setting object (SafetySetting)

Configurações de segurança aplicadas à solicitação.

TextPrompt

Texto fornecido ao modelo como comando.

O modelo vai usar esse TextPrompt para gerar um preenchimento de texto.

Representação JSON
{
  "text": string
}
.
Campos
text string

Obrigatório. O texto de solicitação.