REST Resource: models

Ressource : Modèle

Informations sur un modèle de langage génératif.

Représentation JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Champs
name

string

Obligatoire. Nom de ressource du Model.

Format: models/{model} selon la convention d'attribution de noms {model} suivante:

  • "{baseModelId}-{version}"

Exemples :

  • models/chat-bison-001
baseModelId

string

Obligatoire. Nom du modèle de base, transmettez-le à la requête de génération.

Exemples :

  • chat-bison
version

string

Obligatoire. Numéro de version du modèle.

Il s'agit de la version majeure

displayName

string

Nom lisible du modèle. Exemple : "Chat Bison".

Le nom peut comporter jusqu'à 128 caractères et inclure n'importe quel caractère UTF-8.

description

string

Brève description du modèle.

inputTokenLimit

integer

Nombre maximal de jetons d'entrée autorisés pour ce modèle.

outputTokenLimit

integer

Nombre maximal de jetons de sortie disponibles pour ce modèle.

supportedGenerationMethods[]

string

Méthodes de génération compatibles du modèle.

Les noms de méthodes sont définis en tant que chaînes de casse Pascal (par exemple, generateMessage), qui correspondent aux méthodes d'API.

temperature

number

Contrôle le caractère aléatoire de la sortie.

Les valeurs peuvent être supérieures à [0.0,1.0] inclus. Une valeur proche de 1.0 produira des réponses plus variées, tandis qu'une valeur plus proche de 0.0 produira généralement des réponses moins surprenantes du modèle. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

topP

number

Pour l'échantillonnage du noyau.

L'échantillonnage de noyau prend en compte le plus petit ensemble de jetons dont la probabilité est égale à topP au minimum. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle.

topK

integer

Pour l'échantillonnage Top K.

L'échantillonnage top-k considère l'ensemble de topK jetons les plus probables. Cette valeur spécifie la valeur par défaut à utiliser par le backend lors de l'appel du modèle. Si ce champ est vide, cela signifie que le modèle n'utilise pas l'échantillonnage "top-k" et que topK n'est pas autorisé en tant que paramètre de génération.

Méthodes

batchEmbedContents

Génère plusieurs représentations vectorielles continues à partir du texte d'entrée fourni par le modèle dans un appel synchrone.

batchEmbedText

Génère plusieurs représentations vectorielles continues à partir du texte d'entrée fourni par le modèle dans un appel synchrone.

countMessageTokens

Exécute la fonction de tokenisation d'un modèle sur une chaîne et renvoie le nombre de jetons.

countTextTokens

Exécute la fonction de tokenisation d'un modèle sur un texte et renvoie le nombre de jetons.

countTokens

Exécute la fonction de tokenisation d'un modèle sur le contenu d'entrée et renvoie le nombre de jetons.

embedContent

Génère une représentation vectorielle continue à partir du modèle en fonction d'une Content d'entrée.

embedText

Génère une représentation vectorielle continue à partir du modèle à partir d'un message d'entrée.

generateAnswer

Génère une réponse ancrée à partir du modèle en fonction d'une GenerateAnswerRequest d'entrée.

generateContent

Génère une réponse du modèle en fonction d'une GenerateContentRequest d'entrée.

generateMessage

Génère une réponse du modèle en fonction d'une MessagePrompt d'entrée.

generateText

Génère une réponse du modèle à partir d'un message d'entrée.

get

Récupère des informations sur un modèle spécifique.

list

Répertorie les modèles disponibles via l'API.

streamGenerateContent

Génère une réponse diffusée en streaming à partir du modèle à partir d'une GenerateContentRequest d'entrée.