El extremo de modelos te permite enumerar de forma programática los modelos disponibles y recuperar metadatos extendidos, como la funcionalidad admitida y el tamaño de la ventana de contexto. Obtén más información en la guía de modelos.
Método: models.get
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
- Ejemplo de solicitud
Obtiene información sobre un Model
específico, como su número de versión, los límites de tokens, los parámetros y otros metadatos. Consulta la guía de modelos de Gemini para obtener información detallada sobre los modelos.
Extremo
obtener https://generativelanguage.googleapis.com/v1beta/{name=models/*} .Parámetros de ruta
name
string
Obligatorio. Es el nombre del recurso del modelo.
Este nombre debe coincidir con el nombre de modelo que muestra el método models.list
.
Formato: models/{model}
Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud debe estar vacío.
Ejemplo de solicitud
Python
Una caracola
Cuerpo de la respuesta
Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de Model
.
Método: models.list
- Extremo
- Parámetros de consulta
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
- Ejemplo de solicitud
Muestra una lista de los Model
disponibles a través de la API de Gemini.
Extremo
get https://generativelanguage.googleapis.com/v1beta/modelsParámetros de consulta
pageSize
integer
Es la cantidad máxima de Models
que se mostrarán (por página).
Si no se especifica, se mostrarán 50 modelos por página. Este método muestra 1,000 modelos como máximo por página, incluso si pasas un valor de pageSize más grande.
pageToken
string
Un token de página, recibido desde una llamada models.list
anterior.
Proporciona el pageToken
que muestra una solicitud como argumento para la siguiente solicitud para recuperar la página siguiente.
Cuando se pagina, todos los demás parámetros proporcionados a models.list
deben coincidir con la llamada que proporcionó el token de la página.
Cuerpo de la solicitud
El cuerpo de la solicitud debe estar vacío.
Ejemplo de solicitud
Python
Una caracola
Cuerpo de la respuesta
Respuesta de ListModel
que contiene una lista paginada de modelos.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
models[]
object (Model
)
Los modelos que se muestran.
nextPageToken
string
Un token, que se puede enviar como pageToken
para recuperar la página siguiente.
Si se omite este campo, no habrá más páginas.
Representación JSON |
---|
{
"models": [
{
object ( |
Recurso de REST: models
Recurso: Modelo
Información sobre un modelo de lenguaje generativo.
name
string
Obligatorio. Es el nombre del recurso de Model
. Consulta Variantes de modelos para conocer todos los valores permitidos.
Formato: models/{model}
con una convención de nombres {model}
de lo siguiente:
- “{baseModelId}-{version}”
Ejemplos:
models/gemini-1.5-flash-001
baseModelId
string
Obligatorio. El nombre del modelo base, pasa esto a la solicitud de generación.
Ejemplos:
gemini-1.5-flash
version
string
Obligatorio. El número de versión del modelo.
Representa la versión principal (1.0
o 1.5
).
displayName
string
Es el nombre legible del modelo. P.ej., “Gemini 1.5 Flash”.
El nombre puede tener hasta 128 caracteres y puede constar de caracteres UTF-8.
description
string
Es una descripción breve del modelo.
inputTokenLimit
integer
Es la cantidad máxima de tokens de entrada permitida para este modelo.
outputTokenLimit
integer
Cantidad máxima de tokens de salida disponibles para este modelo.
supportedGenerationMethods[]
string
Los métodos de generación que admite el modelo.
Los nombres de los métodos de la API correspondientes se definen como cadenas en mayúsculas en la primera letra de cada palabra, como generateMessage
y generateContent
.
temperature
number
Controla la aleatoriedad del resultado.
Los valores pueden variar en [0.0,maxTemperature]
, inclusive. Un valor más alto producirá respuestas más variadas, mientras que un valor más cercano a 0.0
generalmente dará como resultado respuestas menos sorprendentes del modelo. Este valor especifica el valor predeterminado que usará el backend cuando realice la llamada al modelo.
maxTemperature
number
La temperatura máxima que puede usar este modelo.
topP
number
Para el muestreo de Nucleus.
El muestreo de núcleo considera el conjunto más pequeño de tokens cuya suma de probabilidades es de al menos topP
. Este valor especifica la configuración predeterminada que usará el backend mientras realiza la llamada al modelo.
topK
integer
Para el muestreo Top-K.
El muestreo de k superior considera el conjunto de topK
tokens más probables. Este valor especifica el valor predeterminado que usará el backend cuando realice la llamada al modelo. Si está vacío, indica que el modelo no usa el muestreo Top-K y que topK
no se permite como parámetro de generación.
Representación JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |