Método: models.get
- Endpoint
- Parâmetros de caminho
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
Recebe informações sobre um modelo específico.
Endpoint
recebe
https://generativelanguage.googleapis.com/v1beta/{name=models/*}
Parâmetros de caminho
name
string
Obrigatório. O nome de recurso do modelo.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
. Ele assume o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação precisa estar vazio.
Exemplo de solicitação
Python
Concha
Corpo da resposta
Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de Model
.
Método: models.list
- Endpoint
- Parâmetros de consulta
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
Lista os modelos disponíveis por meio da API.
Endpoint
recebe
https://generativelanguage.googleapis.com/v1beta/models
Parâmetros de consulta
pageSize
integer
O número máximo de Models
a serem retornados (por página).
O serviço pode retornar menos modelos. Se não for especificado, serão retornados no máximo 50 modelos por página. Esse método retorna no máximo 1.000 modelos por página, mesmo que você transmita um pageSize maior.
pageToken
string
Um token de página recebido de uma chamada models.list
anterior.
Forneça o pageToken
retornado por uma solicitação como um argumento para a próxima solicitação a fim de recuperar a próxima página.
Ao paginar, todos os outros parâmetros fornecidos para models.list
precisam corresponder à chamada que forneceu o token da página.
Corpo da solicitação
O corpo da solicitação precisa estar vazio.
Exemplo de solicitação
Python
Concha
Corpo da resposta
Resposta de ListModel
contendo uma lista paginada de modelos.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
models[]
object (Model
)
Os modelos retornados.
nextPageToken
string
Um token, que pode ser enviado como pageToken
para recuperar a próxima página.
Se esse campo for omitido, não haverá mais páginas.
Representação JSON |
---|
{
"models": [
{
object ( |
Recurso REST: models
Recurso: modelo
Informações sobre um modelo de linguagem generativa.
Representação JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |
name
string
Obrigatório. O nome de recurso do Model
.
Formato: models/{model}
com uma convenção de nomenclatura {model}
de:
- "{baseModelId}-{version}"
Exemplos:
models/chat-bison-001
baseModelId
string
Obrigatório. O nome do modelo base. Transmita o nome para a solicitação de geração.
Exemplos:
chat-bison
version
string
Obrigatório. O número da versão do modelo.
Ela representa a versão principal
displayName
string
O nome legível do modelo. Por exemplo: "Bison no Chat".
O nome pode ter até 128 caracteres e conter qualquer caractere UTF-8.
description
string
É uma breve descrição do modelo.
inputTokenLimit
integer
Número máximo de tokens de entrada permitidos para este modelo.
outputTokenLimit
integer
Número máximo de tokens de saída disponíveis para este modelo.
supportedGenerationMethods[]
string
Os métodos de geração com suporte do modelo.
Os nomes dos métodos são definidos como strings de caso Pascal, como generateMessage
, que correspondem aos métodos da API.
temperature
number
Controla a aleatoriedade da saída.
Os valores podem variar acima de [0.0,maxTemperature]
, inclusive. Um valor maior produz respostas mais variadas, enquanto um valor mais próximo de 0.0
normalmente resulta em respostas menos surpreendentes do modelo. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.
maxTemperature
number
A temperatura máxima que este modelo pode usar.
topP
number
Para amostragem de Nucleus.
A amostragem de núcleos considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP
. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.
topK
integer
Para amostragem de Top-K.
A amostragem top-k considera o conjunto de topK
tokens mais prováveis. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo. Se estiver vazio, isso indica que o modelo não usa a amostragem top-k e topK
não é permitido como um parâmetro de geração.