REST Resource: models

Recurso: modelo

Informações sobre um modelo de linguagem generativa.

Representação JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Campos
name

string

Obrigatório. O nome do recurso de Model.

Formato: models/{model} com uma convenção de nomenclatura {model} de:

  • "{baseModelId}-{version}"

Por exemplo:

  • models/chat-bison-001
baseModelId

string

Obrigatório. O nome do modelo base. Transmita isso para a solicitação de geração.

Por exemplo:

  • chat-bison
version

string

Obrigatório. O número da versão do modelo.

Isso representa a versão principal

displayName

string

O nome legível do modelo. Por exemplo, "Chat Bison".

O nome pode ter até 128 caracteres e conter qualquer caractere UTF-8.

description

string

Uma breve descrição do modelo.

inputTokenLimit

integer

Número máximo de tokens de entrada permitidos para este modelo.

outputTokenLimit

integer

Número máximo de tokens de saída disponíveis para este modelo.

supportedGenerationMethods[]

string

Os métodos de geração com suporte do modelo.

Os nomes dos métodos são definidos como strings de maiúsculas e minúsculas em Pascal, como generateMessage, que correspondem aos métodos da API.

temperature

number

Controla a aleatoriedade da saída.

Os valores podem variar para mais de [0.0,1.0], inclusive. Um valor mais próximo de 1.0 produzirá respostas mais variadas, enquanto um valor mais próximo de 0.0 normalmente resultará em respostas menos surpreendentes do modelo. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

topP

number

Para amostragem Nucleus.

A amostragem Nucleus considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

topK

integer

Para amostragem Top-k.

A amostragem top-k considera o conjunto de topK tokens mais prováveis. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo. Se estiver vazio, indica que o modelo não usa amostragem top-k e topK não é permitido como parâmetro de geração.

Métodos

batchEmbedContents

Gera vários embeddings do modelo com base no texto de entrada em uma chamada síncrona.

batchEmbedText

Gera vários embeddings do modelo com base no texto de entrada em uma chamada síncrona.

countMessageTokens

Executa o tokenizador de um modelo em uma string e retorna a contagem de tokens.

countTextTokens

Executa o tokenizador de um modelo em um texto e retorna a contagem de tokens.

countTokens

Executa o tokenizador de um modelo no conteúdo de entrada e retorna a contagem de tokens.

embedContent

Gera um embedding do modelo com base em uma entrada Content.

embedText

Gera um embedding do modelo a partir de uma mensagem de entrada.

generateAnswer

Gera uma resposta embasada a partir do modelo, dada uma entrada GenerateAnswerRequest.

generateContent

Gera uma resposta do modelo com base em uma entrada GenerateContentRequest.

generateMessage

Gera uma resposta do modelo com base em uma entrada MessagePrompt.

generateText

Gera uma resposta do modelo com base em uma mensagem de entrada.

get

Recebe informações sobre um modelo específico.

list

Lista os modelos disponíveis por meio da API.

streamGenerateContent

Gera uma resposta transmitida do modelo com base em uma entrada GenerateContentRequest.