Models

El extremo de modelos te permite enumerar de forma programática los modelos disponibles y recuperar metadatos extendidos, como la funcionalidad admitida y el tamaño de la ventana de contexto. Obtén más información en la guía de modelos.

Método: models.get

Obtiene información sobre un Model específico, como su número de versión, los límites de tokens, los parámetros y otros metadatos. Consulta la guía de modelos de Gemini para obtener información detallada sobre los modelos.

Extremo

obtener https://generativelanguage.googleapis.com/v1beta/{name=models/*} .

Parámetros de ruta

name string

Obligatorio. Es el nombre del recurso del modelo.

Este nombre debe coincidir con el nombre de modelo que muestra el método models.list.

Formato: models/{model} Toma la forma models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud debe estar vacío.

Ejemplo de solicitud

Python

import google.generativeai as genai

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Una caracola

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Cuerpo de la respuesta

Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de Model.

Método: models.list

Muestra una lista de los Model disponibles a través de la API de Gemini.

Extremo

get https://generativelanguage.googleapis.com/v1beta/models

Parámetros de consulta

pageSize integer

Es la cantidad máxima de Models que se mostrarán (por página).

Si no se especifica, se mostrarán 50 modelos por página. Este método muestra 1,000 modelos como máximo por página, incluso si pasas un valor de pageSize más grande.

pageToken string

Un token de página, recibido desde una llamada models.list anterior.

Proporciona el pageToken que muestra una solicitud como argumento para la siguiente solicitud para recuperar la página siguiente.

Cuando se pagina, todos los demás parámetros proporcionados a models.list deben coincidir con la llamada que proporcionó el token de la página.

Cuerpo de la solicitud

El cuerpo de la solicitud debe estar vacío.

Ejemplo de solicitud

Python

import google.generativeai as genai

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Una caracola

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Cuerpo de la respuesta

Respuesta de ListModel que contiene una lista paginada de modelos.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
models[] object (Model)

Los modelos que se muestran.

nextPageToken string

Un token, que se puede enviar como pageToken para recuperar la página siguiente.

Si se omite este campo, no habrá más páginas.

Representación JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Recurso de REST: models

Recurso: Modelo

Información sobre un modelo de lenguaje generativo.

Campos
name string

Obligatorio. Es el nombre del recurso de Model. Consulta Variantes de modelos para conocer todos los valores permitidos.

Formato: models/{model} con una convención de nombres {model} de lo siguiente:

  • “{baseModelId}-{version}”

Ejemplos:

  • models/gemini-1.5-flash-001
baseModelId string

Obligatorio. El nombre del modelo base, pasa esto a la solicitud de generación.

Ejemplos:

  • gemini-1.5-flash
version string

Obligatorio. El número de versión del modelo.

Representa la versión principal (1.0 o 1.5).

displayName string

Es el nombre legible del modelo. P.ej., “Gemini 1.5 Flash”.

El nombre puede tener hasta 128 caracteres y puede constar de caracteres UTF-8.

description string

Es una descripción breve del modelo.

inputTokenLimit integer

Es la cantidad máxima de tokens de entrada permitida para este modelo.

outputTokenLimit integer

Cantidad máxima de tokens de salida disponibles para este modelo.

supportedGenerationMethods[] string

Los métodos de generación que admite el modelo.

Los nombres de los métodos de la API correspondientes se definen como cadenas en mayúsculas en la primera letra de cada palabra, como generateMessage y generateContent.

temperature number

Controla la aleatoriedad del resultado.

Los valores pueden variar en [0.0,maxTemperature], inclusive. Un valor más alto producirá respuestas más variadas, mientras que un valor más cercano a 0.0 generalmente dará como resultado respuestas menos sorprendentes del modelo. Este valor especifica el valor predeterminado que usará el backend cuando realice la llamada al modelo.

maxTemperature number

La temperatura máxima que puede usar este modelo.

topP number

Para el muestreo de Nucleus.

El muestreo de núcleo considera el conjunto más pequeño de tokens cuya suma de probabilidades es de al menos topP. Este valor especifica la configuración predeterminada que usará el backend mientras realiza la llamada al modelo.

topK integer

Para el muestreo Top-K.

El muestreo de k superior considera el conjunto de topK tokens más probables. Este valor especifica el valor predeterminado que usará el backend cuando realice la llamada al modelo. Si está vacío, indica que el modelo no usa el muestreo Top-K y que topK no se permite como parámetro de generación.

Representación JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}