Models

Método: models.get

Recebe informações sobre um modelo específico.

Endpoint

recebe https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parâmetros de caminho

name string

Obrigatório. O nome de recurso do modelo.

Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list.

Formato: models/{model}. Ele assume o formato models/{model}.

Corpo da solicitação

O corpo da solicitação precisa estar vazio.

Exemplo de solicitação

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Concha

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-pro?key=$GOOGLE_API_KEY

Corpo da resposta

Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de Model.

Método: models.list

Lista os modelos disponíveis por meio da API.

Endpoint

recebe https://generativelanguage.googleapis.com/v1beta/models

Parâmetros de consulta

pageSize integer

O número máximo de Models a serem retornados (por página).

O serviço pode retornar menos modelos. Se não for especificado, serão retornados no máximo 50 modelos por página. Esse método retorna no máximo 1.000 modelos por página, mesmo que você transmita um pageSize maior.

pageToken string

Um token de página recebido de uma chamada models.list anterior.

Forneça o pageToken retornado por uma solicitação como um argumento para a próxima solicitação a fim de recuperar a próxima página.

Ao paginar, todos os outros parâmetros fornecidos para models.list precisam corresponder à chamada que forneceu o token da página.

Corpo da solicitação

O corpo da solicitação precisa estar vazio.

Exemplo de solicitação

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Concha

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corpo da resposta

Resposta de ListModel contendo uma lista paginada de modelos.

Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:

.
Campos
models[] object (Model)

Os modelos retornados.

nextPageToken string

Um token, que pode ser enviado como pageToken para recuperar a próxima página.

Se esse campo for omitido, não haverá mais páginas.

Representação JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Recurso REST: models

Recurso: modelo

Informações sobre um modelo de linguagem generativa.

Representação JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}
.
Campos
name string

Obrigatório. O nome de recurso do Model.

Formato: models/{model} com uma convenção de nomenclatura {model} de:

  • "{baseModelId}-{version}"

Exemplos:

  • models/chat-bison-001
baseModelId string

Obrigatório. O nome do modelo base. Transmita o nome para a solicitação de geração.

Exemplos:

  • chat-bison
version string

Obrigatório. O número da versão do modelo.

Ela representa a versão principal

displayName string

O nome legível do modelo. Por exemplo: "Bison no Chat".

O nome pode ter até 128 caracteres e conter qualquer caractere UTF-8.

description string

É uma breve descrição do modelo.

inputTokenLimit integer

Número máximo de tokens de entrada permitidos para este modelo.

outputTokenLimit integer

Número máximo de tokens de saída disponíveis para este modelo.

supportedGenerationMethods[] string

Os métodos de geração com suporte do modelo.

Os nomes dos métodos são definidos como strings de caso Pascal, como generateMessage, que correspondem aos métodos da API.

temperature number

Controla a aleatoriedade da saída.

Os valores podem variar acima de [0.0,maxTemperature], inclusive. Um valor maior produz respostas mais variadas, enquanto um valor mais próximo de 0.0 normalmente resulta em respostas menos surpreendentes do modelo. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

maxTemperature number

A temperatura máxima que este modelo pode usar.

topP number

Para amostragem de Nucleus.

A amostragem de núcleos considera o menor conjunto de tokens cuja soma de probabilidade é de pelo menos topP. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo.

topK integer

Para amostragem de Top-K.

A amostragem top-k considera o conjunto de topK tokens mais prováveis. Esse valor especifica o padrão a ser usado pelo back-end ao fazer a chamada para o modelo. Se estiver vazio, isso indica que o modelo não usa a amostragem top-k e topK não é permitido como um parâmetro de geração.