Models

Le point de terminaison des modèles vous permet de répertorier de manière programmatique les modèles disponibles et de récupérer des métadonnées étendues telles que les fonctionnalités compatibles et la taille de la fenêtre de contexte. Pour en savoir plus, consultez le guide des modèles.

Méthode: Models.get

Récupère des informations sur un Model spécifique, telles que son numéro de version, ses limites de jetons, ses paramètres et d'autres métadonnées. Pour en savoir plus sur les modèles, consultez le guide des modèles Gemini.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> obtenir https://generativelanguage.googleapis.com/v1beta/{name=models/*} .

Paramètres de chemin d'accès

name string

Obligatoire. Nom de ressource du modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format: models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Coquille Rose

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de Model.

Méthode: Models.list

Répertorie les Models disponibles via l'API Gemini.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> obtenir https://generativelanguage.googleapis.com/v1beta/models .

Paramètres de requête

pageSize integer

Nombre maximal d'éléments Models à renvoyer (par page).

Si aucune valeur n'est spécifiée, 50 modèles seront renvoyés par page. Cette méthode renvoie 1 000 modèles par page au maximum, même si vous transmettez une taille de page supérieure.

pageToken string

Jeton de page reçu d'un appel models.list précédent.

Fournissez le pageToken renvoyé par une requête en tant qu'argument à la requête suivante pour récupérer la page suivante.

Lors de la pagination, tous les autres paramètres fournis à models.list doivent correspondre à l'appel ayant fourni le jeton de page.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Coquille Rose

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Corps de la réponse

Réponse de ListModel contenant une liste paginée de modèles.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
models[] object (Model)

Modèles renvoyés.

nextPageToken string

Jeton pouvant être envoyé en tant que pageToken pour récupérer la page suivante.

Si ce champ est omis, il n'y a plus de pages.

Représentation JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Ressource REST: modèles

Ressource : Modèle

Informations sur un modèle de langage génératif.

<ph type="x-smartling-placeholder">
</ph> Champs
name string

Obligatoire. Nom de ressource de Model. Reportez-vous à Variantes du modèle pour connaître toutes les valeurs autorisées.

Format: models/{model} avec la convention d'attribution de noms {model} suivante:

  • "{baseModelId}-{version}"

Exemples :

  • models/gemini-1.5-flash-001
baseModelId string

Obligatoire. Nom du modèle de base, transmettez-le à la requête de génération.

Exemples :

  • gemini-1.5-flash
version string

Obligatoire. Numéro de version du modèle.

Il s'agit de la version majeure (1.0 ou 1.5).

displayName string

Nom lisible du modèle. Exemple : "Gemini 1.5 Flash".

Le nom peut comporter jusqu'à 128 caractères et inclure n'importe quel caractère UTF-8.

description string

Brève description du modèle.

inputTokenLimit integer

Nombre maximal de jetons d'entrée autorisé pour ce modèle.

outputTokenLimit integer

Nombre maximal de jetons de sortie disponibles pour ce modèle.

supportedGenerationMethods[] string

Méthodes de génération compatibles avec le modèle

Les noms de méthodes API correspondants sont définis sous la forme de chaînes de casse Pascal, telles que generateMessage et generateContent.

temperature number

Contrôle le caractère aléatoire de la sortie.

Les valeurs peuvent être supérieures ou égales à [0.0,maxTemperature] inclus. Une valeur plus élevée produira des réponses plus variées, tandis qu'une valeur plus proche de 0.0 produira généralement des réponses moins surprenantes du modèle. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

maxTemperature number

Température maximale pouvant être utilisée par ce modèle.

topP number

Pour l'échantillonnage Nucleus

L'échantillonnage Nucleus tient compte du plus petit ensemble de jetons dont la somme de probabilité est d'au moins topP. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

topK integer

Pour l'échantillonnage top-k.

L'échantillonnage top-k tient compte de l'ensemble de jetons les plus probables (topK). Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle. Si ce champ est vide, cela signifie que le modèle n'utilise pas d'échantillonnage "top-k" et que topK n'est pas autorisé en tant que paramètre de génération.

Représentation JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}