Method: models.generateMessage

Génère une réponse à partir du modèle à partir d'une entrée MessagePrompt.

Requête HTTP

POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

L'URL utilise la syntaxe de transcodage gRPC.

Paramètres de chemin d'accès

Paramètres
model

string

Obligatoire. Nom du modèle à utiliser.

Format : name=models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

Représentation JSON
{
  "prompt": {
    object (MessagePrompt)
  },
  "temperature": number,
  "candidateCount": integer,
  "topP": number,
  "topK": integer
}
Champs
prompt

object (MessagePrompt)

Obligatoire. Entrée textuelle structurée transmise au modèle sous forme de requête.

À partir d'une requête, le modèle renvoie ce qu'il prédit comme le message suivant de la discussion.

temperature

number

Facultatif. Permet de contrôler le caractère aléatoire de la sortie.

Les valeurs peuvent être supérieures à [0.0,1.0] inclus. Une valeur plus proche de 1.0 produira des réponses plus variées, tandis qu'une valeur plus proche de 0.0 produira généralement des réponses moins surprenantes du modèle.

candidateCount

integer

Facultatif. Nombre de messages de réponse générés à renvoyer.

Cette valeur doit être comprise entre [1, 8] inclus. Si cette règle n'est pas configurée, la valeur par défaut est 1.

topP

number

Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné de top-k et de noyau.

L'échantillonnage de noyau prend en compte le plus petit ensemble de jetons dont la somme des probabilités est d'au moins topP.

topK

integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage combiné de top-k et de noyau.

L'échantillonnage top-k prend en compte l'ensemble des topK jetons les plus probables.

Corps de la réponse

Réponse du modèle.

y compris les messages des candidats et l'historique des conversations, sous la forme de messages classés par ordre chronologique.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Représentation JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}
Champs
candidates[]

object (Message)

Messages de réponse du modèle.

messages[]

object (Message)

Historique de conversation utilisé par le modèle.

filters[]

object (ContentFilter)

Un ensemble de métadonnées de filtrage de contenu pour l'invite et le texte de la réponse.

Indique la ou les SafetyCategory qui ont bloqué un candidat pour cette réponse, la HarmProbability la plus basse ayant déclenché un blocage et le paramètre HarmThreshold pour cette catégorie.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/generative-language
  • https://www.googleapis.com/auth/generative-language.tuning
  • https://www.googleapis.com/auth/generative-language.tuning.readonly
  • https://www.googleapis.com/auth/generative-language.retriever
  • https://www.googleapis.com/auth/generative-language.retriever.readonly

Pour en savoir plus, consultez la page Présentation de l'authentification.