Models

O endpoint dos modelos oferece uma maneira de listar programaticamente os modelos disponíveis e recuperar metadados estendidos, como funcionalidade compatível e dimensionamento da janela de contexto. Leia mais no guia de modelos.

Método: models.get

Recebe informações sobre um Model específico, como o número da versão, os limites de token, os parâmetros e outros metadados. Consulte o guia de modelos do Gemini para informações detalhadas.

Endpoint

recebe https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parâmetros de caminho

name string

Obrigatório. O nome do recurso do modelo.

Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list.

Formato: models/{model} Ele tem o formato models/{model}.

Corpo da solicitação

O corpo da solicitação precisa estar vazio.

Exemplo de solicitação

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Concha

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Corpo da resposta

Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de Model.

Método: models.list

Lista os Models disponíveis na API Gemini.

Endpoint

recebe https://generativelanguage.googleapis.com/v1beta/models

Parâmetros de consulta

pageSize integer

O número máximo de Models a serem retornados (por página).

Se não for especificado, 50 modelos serão retornados por página. Esse método retorna no máximo 1.000 modelos por página, mesmo que você transmita um pageSize maior.

pageToken string

Um token de página recebido de uma chamada models.list anterior.

Forneça o pageToken retornado por uma solicitação como um argumento para a próxima solicitação a fim de recuperar a próxima página.

Ao paginar, todos os outros parâmetros fornecidos para models.list precisam corresponder à chamada que forneceu o token da página.

Corpo da solicitação

O corpo da solicitação precisa estar vazio.

Exemplo de solicitação

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Concha

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corpo da resposta

Resposta de ListModel contendo uma lista paginada de modelos.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
models[] object (Model)

Os modelos retornados.

nextPageToken string

Um token, que pode ser enviado como pageToken para recuperar a próxima página.

Se esse campo for omitido, não haverá mais páginas.

Representação JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Recurso REST: models

Recurso: modelo

Informações sobre um modelo de linguagem generativa.

.
Campos
name string

Obrigatório. O nome do recurso do Model. Consulte Variantes de modelo para conferir todos os valores permitidos.

Formato: models/{model} com uma convenção de nomenclatura {model} de:

  • "{baseModelId}-{version}"

Exemplos:

  • models/gemini-1.5-flash-001
baseModelId string

Obrigatório. O nome do modelo base. Transmita o nome para a solicitação de geração.

Exemplos:

  • gemini-1.5-flash
version string

Obrigatório. O número da versão do modelo.

Representa a versão principal (1.0 ou 1.5)

displayName string

O nome legível do modelo. Por exemplo, "Gemini 1.5 Flash".

O nome pode ter até 128 caracteres e conter qualquer caractere UTF-8.

description string

Uma breve descrição do modelo.

inputTokenLimit integer

Número máximo de tokens de entrada permitidos para este modelo.

outputTokenLimit integer

Número máximo de tokens de saída disponíveis para este modelo.

supportedGenerationMethods[] string

Os métodos de geração com suporte do modelo.

Os nomes dos métodos de API correspondentes são definidos como strings de maiúsculas/minúsculas em Pascal, como generateMessage e generateContent.

temperature number

Controla a aleatoriedade da saída.

Os valores podem variar acima de [0.0,maxTemperature], inclusive. Um valor maior produz respostas mais variadas, enquanto um valor mais próximo de 0.0 normalmente resulta em respostas menos surpreendentes do modelo. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

maxTemperature number

A temperatura máxima que esse modelo pode usar.

topP number

Para Amostragem Nucleus.

A amostragem de núcleos considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

topK integer

Para a amostragem top-k.

A amostragem top-k considera o conjunto de tokens topK mais prováveis. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo. Se estiver vazio, isso indica que o modelo não usa a amostragem top-k e topK não é permitido como um parâmetro de geração.

Representação JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}