Le point de terminaison des modèles vous permet de répertorier de manière programmatique les modèles disponibles et de récupérer des métadonnées étendues telles que les fonctionnalités compatibles et la taille de la fenêtre de contexte. Pour en savoir plus, consultez le guide des modèles.
Méthode : models.get
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
- Exemple de requête
Récupère des informations sur un Model
spécifique, telles que son numéro de version, ses limites de jetons, ses paramètres et d'autres métadonnées. Pour en savoir plus sur les modèles, consultez le guide des modèles Gemini.
Point de terminaison
obtenir https://generativelanguage.googleapis.com/v1beta/{name=models/*}Paramètres de chemin d'accès
name
string
Obligatoire. Nom de la ressource du modèle.
Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list
.
Format: models/{model}
. Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête doit être vide.
Exemple de requête
Python
Coquille Rose
Corps de la réponse
Si la requête aboutit, le corps de la réponse contient une instance de Model
.
Méthode : models.list
- Point de terminaison
- Paramètres de requête
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
- Exemple de requête
Répertorie les Model
disponibles via l'API Gemini.
Point de terminaison
get https://generativelanguage.googleapis.com/v1beta/modelsParamètres de requête
pageSize
integer
Nombre maximal de Models
à renvoyer (par page).
Si aucune valeur n'est spécifiée, 50 modèles seront renvoyés par page. Cette méthode renvoie 1 000 modèles par page au maximum, même si vous transmettez une taille de page supérieure.
pageToken
string
Jeton de page reçu d'un appel models.list
précédent.
Indiquez le pageToken
renvoyé par une requête en tant qu'argument de la requête suivante pour récupérer la page suivante.
Lors de la pagination, tous les autres paramètres fournis à models.list
doivent correspondre à l'appel ayant fourni le jeton de page.
Corps de la requête
Le corps de la requête doit être vide.
Exemple de requête
Python
Coquille Rose
Corps de la réponse
Réponse de ListModel
contenant une liste paginée de modèles.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
models[]
object (Model
)
Modèles renvoyés.
nextPageToken
string
Jeton pouvant être envoyé en tant que pageToken
pour récupérer la page suivante.
Si ce champ est omis, il n'y a plus de pages.
Représentation JSON |
---|
{
"models": [
{
object ( |
Ressource REST: modèles
Ressource : Modèle
Informations sur un modèle de langage génératif.
name
string
Obligatoire. Nom de la ressource du Model
. Pour connaître toutes les valeurs autorisées, consultez Variantes de modèle.
Format: models/{model}
avec la convention d'attribution de noms {model}
suivante:
- "{baseModelId}-{version}"
Exemples :
models/gemini-1.5-flash-001
baseModelId
string
Obligatoire. Nom du modèle de base, transmettez-le à la requête de génération.
Exemples :
gemini-1.5-flash
version
string
Obligatoire. Numéro de version du modèle.
Il s'agit de la version majeure (1.0
ou 1.5
).
displayName
string
Nom lisible du modèle. Exemple : "Gemini 1.5 Flash".
Le nom peut comporter jusqu'à 128 caractères et inclure n'importe quel caractère UTF-8.
description
string
Brève description du modèle.
inputTokenLimit
integer
Nombre maximal de jetons d'entrée autorisé pour ce modèle.
outputTokenLimit
integer
Nombre maximal de jetons de sortie disponibles pour ce modèle.
supportedGenerationMethods[]
string
Méthodes de génération compatibles avec le modèle
Les noms de méthode d'API correspondants sont définis comme des chaînes en casse Pascal, telles que generateMessage
et generateContent
.
temperature
number
Contrôle le caractère aléatoire de la sortie.
Les valeurs peuvent être supérieures à [0.0,maxTemperature]
(inclus). Une valeur plus élevée produit des réponses plus variées, tandis qu'une valeur plus proche de 0.0
entraîne généralement des réponses moins surprenantes du modèle. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.
maxTemperature
number
Température maximale que ce modèle peut utiliser.
topP
number
Pour l'échantillonnage Nucleus.
L'échantillonnage du noyau prend en compte le plus petit ensemble de jetons dont la somme des probabilités est d'au moins topP
. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.
topK
integer
Pour l'échantillonnage top-k.
L'échantillonnage top-k tient compte de l'ensemble de jetons les plus probables (topK
). Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle. Si ce champ est vide, cela signifie que le modèle n'utilise pas d'échantillonnage "top-k" et que topK
n'est pas autorisé en tant que paramètre de génération.
Représentation JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |