O endpoint dos modelos oferece uma maneira de listar programaticamente os modelos disponíveis e recuperar metadados estendidos, como funcionalidade compatível e dimensionamento da janela de contexto. Leia mais no guia de modelos.
Método: models.get
- Endpoint
- Parâmetros de caminho
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
Recebe informações sobre um Model
específico, como o número da versão, os limites de token, os parâmetros e outros metadados. Consulte o guia de modelos do Gemini para informações detalhadas.
Endpoint
recebe https://generativelanguage.googleapis.com/v1beta/{name=models/*}Parâmetros de caminho
name
string
Obrigatório. O nome do recurso do modelo.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação precisa estar vazio.
Exemplo de solicitação
Python
Concha
Corpo da resposta
Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de Model
.
Método: models.list
- Endpoint
- Parâmetros de consulta
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- Exemplo de solicitação
Lista os Model
s disponíveis na API Gemini.
Endpoint
recebe https://generativelanguage.googleapis.com/v1beta/modelsParâmetros de consulta
pageSize
integer
O número máximo de Models
a serem retornados (por página).
Se não for especificado, 50 modelos serão retornados por página. Esse método retorna no máximo 1.000 modelos por página, mesmo que você transmita um pageSize maior.
pageToken
string
Um token de página recebido de uma chamada models.list
anterior.
Forneça o pageToken
retornado por uma solicitação como um argumento para a próxima solicitação a fim de recuperar a próxima página.
Ao paginar, todos os outros parâmetros fornecidos para models.list
precisam corresponder à chamada que forneceu o token da página.
Corpo da solicitação
O corpo da solicitação precisa estar vazio.
Exemplo de solicitação
Python
Concha
Corpo da resposta
Resposta de ListModel
contendo uma lista paginada de modelos.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
models[]
object (Model
)
Os modelos retornados.
nextPageToken
string
Um token, que pode ser enviado como pageToken
para recuperar a próxima página.
Se esse campo for omitido, não haverá mais páginas.
Representação JSON |
---|
{
"models": [
{
object ( |
Recurso REST: models
Recurso: modelo
Informações sobre um modelo de linguagem generativa.
name
string
Obrigatório. O nome do recurso do Model
. Consulte Variantes de modelo para conferir todos os valores permitidos.
Formato: models/{model}
com uma convenção de nomenclatura {model}
de:
- "{baseModelId}-{version}"
Exemplos:
models/gemini-1.5-flash-001
baseModelId
string
Obrigatório. O nome do modelo base. Transmita o nome para a solicitação de geração.
Exemplos:
gemini-1.5-flash
version
string
Obrigatório. O número da versão do modelo.
Representa a versão principal (1.0
ou 1.5
)
displayName
string
O nome legível do modelo. Por exemplo, "Gemini 1.5 Flash".
O nome pode ter até 128 caracteres e conter qualquer caractere UTF-8.
description
string
Uma breve descrição do modelo.
inputTokenLimit
integer
Número máximo de tokens de entrada permitidos para este modelo.
outputTokenLimit
integer
Número máximo de tokens de saída disponíveis para este modelo.
supportedGenerationMethods[]
string
Os métodos de geração com suporte do modelo.
Os nomes dos métodos de API correspondentes são definidos como strings de maiúsculas/minúsculas em Pascal, como generateMessage
e generateContent
.
temperature
number
Controla a aleatoriedade da saída.
Os valores podem variar acima de [0.0,maxTemperature]
, inclusive. Um valor maior produz respostas mais variadas, enquanto um valor mais próximo de 0.0
normalmente resulta em respostas menos surpreendentes do modelo. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.
maxTemperature
number
A temperatura máxima que esse modelo pode usar.
topP
number
Para Amostragem Nucleus.
A amostragem de núcleos considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP
. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.
topK
integer
Para a amostragem top-k.
A amostragem top-k considera o conjunto de tokens topK
mais prováveis. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo. Se estiver vazio, isso indica que o modelo não usa a amostragem top-k e topK
não é permitido como um parâmetro de geração.
Representação JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |