PaLM (deprecated)

Méthode: Models.generateText

Génère une réponse du modèle à partir d'un message d'entrée.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText .

Paramètres de chemin d'accès

model string

Obligatoire. Nom de l'élément Model ou TunedModel à utiliser pour générer l'achèvement. Exemples: modèles/text-bison-001 hitsModels/sentence-translator-u3b7m. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
prompt object (TextPrompt)

Obligatoire. Texte d'entrée de forme libre transmis au modèle sous forme de requête.

À partir d'une requête, le modèle génère une réponse TextCompletion qu'il prédit comme l'achèvement du texte d'entrée.

safetySettings[] object (SafetySetting)

Facultatif. Liste d'instances SafetySetting uniques permettant de bloquer le contenu à risque.

qui sera appliqué à GenerateTextRequest.prompt et GenerateTextResponse.candidates. Il ne doit pas y avoir plus d'un paramètre par type de SafetyCategory. L'API bloquera toutes les invites et réponses qui ne respectent pas les seuils définis par ces paramètres. Cette liste remplace les paramètres par défaut pour chaque SafetyCategory spécifié dans les paramètres de sécurité. Si aucun SafetySetting ne figure dans la liste pour un SafetyCategory donné, l'API utilise le paramètre de sécurité par défaut pour cette catégorie. Les catégories de préjudices HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sont acceptées dans les services textuels.

stopSequences[] string

Ensemble de séquences de caractères (jusqu'à 5) qui arrêtent la génération de résultats. Si elle est spécifiée, l'API s'arrête à la première apparition d'une séquence d'arrêt. La séquence d'arrêt ne sera pas incluse dans la réponse.

temperature number

Facultatif. Contrôle le caractère aléatoire de la sortie. Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.temperature de Model qui a renvoyé la fonction getModel.

Les valeurs peuvent être comprises entre [0,0 et 1,0] inclus. Une valeur proche de 1,0 produira des réponses plus variées et créatives, tandis qu'une valeur plus proche de 0,0 donnera généralement des réponses plus simples du modèle.

candidateCount integer

Facultatif. Nombre de réponses générées à renvoyer.

Cette valeur doit être comprise entre [1 et 8] inclus. Si cette règle n'est pas configurée, la valeur par défaut est 1.

maxOutputTokens integer

Facultatif. Nombre maximal de jetons à inclure dans un candidat.

Si cette règle n'est pas configurée, la valeur "outputTokenLimit" est définie par défaut dans la spécification Model.

topP number

Facultatif. Probabilité cumulée maximale de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

Les jetons sont triés en fonction des probabilités qui leur sont attribuées, de sorte que seuls les jetons les plus probables soient pris en compte. L'échantillonnage top-k limite directement le nombre maximal de jetons à prendre en compte, tandis que l'échantillonnage Nucleus limite le nombre de jetons en fonction de la probabilité cumulée.

Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.top_p de Model qui a renvoyé la fonction getModel.

topK integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

L'échantillonnage top-k tient compte de l'ensemble de jetons les plus probables (topK). La valeur par défaut est 40.

Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.top_k de Model qui a renvoyé la fonction getModel.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de GenerateTextResponse.

Méthode: Models.countTextTokens

Exécute la fonction de tokenisation d'un modèle sur un texte et renvoie le nombre de jetons.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens .

Paramètres de chemin d'accès

model string

Obligatoire. Nom de ressource du modèle. Il servira d'ID pour le modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format: models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
prompt object (TextPrompt)

Obligatoire. Texte d'entrée de forme libre transmis au modèle sous forme de requête.

Corps de la réponse

Réponse de models.countTextTokens.

Elle renvoie l'tokenCount du modèle pour prompt.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
tokenCount integer

Nombre de jetons dans lesquels le model tokenise le prompt.

Toujours non négatif.

Représentation JSON
{
  "tokenCount": integer
}

Méthode: Models.generateMessage

Génère une réponse du modèle en fonction d'une MessagePrompt d'entrée.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage .

Paramètres de chemin d'accès

model string

Obligatoire. Nom du modèle à utiliser.

Format : name=models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
prompt object (MessagePrompt)

Obligatoire. Entrée textuelle structurée donnée au modèle en tant que requête.

À partir d'une requête, le modèle renvoie ce qu'il prédit pour le prochain message de la discussion.

temperature number

Facultatif. Contrôle le caractère aléatoire de la sortie.

Les valeurs peuvent être supérieures ou égales à [0.0,1.0] inclus. Une valeur plus proche de 1.0 produira des réponses plus variées, tandis qu'une valeur plus proche de 0.0 produira généralement des réponses moins surprenantes de la part du modèle.

candidateCount integer

Facultatif. Nombre de messages de réponse générés à renvoyer.

Cette valeur doit être comprise entre [1, 8] inclus. Si cette règle n'est pas configurée, la valeur par défaut est 1.

topP number

Facultatif. Probabilité cumulée maximale de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

L'échantillonnage Nucleus tient compte du plus petit ensemble de jetons dont la somme de probabilité est d'au moins topP.

topK integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

L'échantillonnage top-k tient compte de l'ensemble de jetons les plus probables (topK).

Corps de la réponse

Réponse du modèle.

Cela inclut les messages des candidats et l'historique des conversations sous la forme de messages classés chronologiquement.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
candidates[] object (Message)

Messages de réponse du candidat du modèle.

messages[] object (Message)

Historique des conversations utilisé par le modèle.

filters[] object (ContentFilter)

Ensemble de métadonnées de filtrage de contenu pour la requête et le texte de la réponse.

Cela permet d'indiquer le ou les SafetyCategory qui ont bloqué un candidat pour cette réponse, le HarmProbability le plus bas ayant déclenché un blocage et le paramètre HarmThreshold pour cette catégorie.

Représentation JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Méthode: Models.countMessageTokens

Exécute la fonction de tokenisation d'un modèle sur une chaîne et renvoie le nombre de jetons.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens .

Paramètres de chemin d'accès

model string

Obligatoire. Nom de ressource du modèle. Il servira d'ID pour le modèle.

Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list.

Format: models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
prompt object (MessagePrompt)

Obligatoire. Invite, dont le nombre de jetons doit être renvoyé.

Corps de la réponse

Réponse de models.countMessageTokens.

Elle renvoie l'tokenCount du modèle pour prompt.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
tokenCount integer

Nombre de jetons dans lesquels le model tokenise le prompt.

Toujours non négatif.

Représentation JSON
{
  "tokenCount": integer
}

Méthode: Models.embedText

Génère une représentation vectorielle continue à partir du modèle en fonction d'un message d'entrée.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText .

Paramètres de chemin d'accès

model string

Obligatoire. Nom du modèle à utiliser au format model=models/{model}. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
text string

Facultatif. Texte d'entrée de forme libre que le modèle transformera en représentation vectorielle continue.

Corps de la réponse

Réponse à une requête EmbedTextRequest.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
embedding object (Embedding)

Uniquement en sortie. La représentation vectorielle continue générée à partir du texte d'entrée.

Représentation JSON
{
  "embedding": {
    object (Embedding)
  }
}

Méthode: Models.batchEmbedText

Génère plusieurs représentations vectorielles continues à partir du texte d'entrée du modèle dans un appel synchrone.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText .

Paramètres de chemin d'accès

model string

Obligatoire. Nom du Model à utiliser pour générer la représentation vectorielle continue. Exemples: modèles/embedding-gecko-001. Il se présente sous la forme models/{model}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
texts[] string

Facultatif. Textes d'entrée de forme libre que le modèle transformera en représentation vectorielle continue. La limite actuelle est de 100 textes, au-delà duquel une erreur est générée.

requests[] object (EmbedTextRequest)

Facultatif. Requêtes d'intégration pour le lot. Vous ne pouvez définir qu'une seule propriété texts ou requests.

Corps de la réponse

Réponse à une requête EmbedTextRequest.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
embeddings[] object (Embedding)

Uniquement en sortie. Les représentations vectorielles continues générées à partir du texte d'entrée.

Représentation JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Requête d'obtention d'une représentation vectorielle continue de texte à partir du modèle.

Représentation JSON
{
  "model": string,
  "text": string
}
Champs
model string

Obligatoire. Nom du modèle à utiliser au format model=models/{model}.

text string

Facultatif. Texte d'entrée de forme libre que le modèle transformera en représentation vectorielle continue.

Méthode: hitsModels.generateText

Génère une réponse du modèle à partir d'un message d'entrée.

Point de terminaison

<ph type="x-smartling-placeholder"></ph> publier https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText .

Paramètres de chemin d'accès

model string

Obligatoire. Nom de l'élément Model ou TunedModel à utiliser pour générer l'achèvement. Exemples: modèles/text-bison-001 hitsModels/sentence-translator-u3b7m. Il se présente sous la forme tunedModels/{tunedmodel}.

Corps de la requête

Le corps de la requête contient des données présentant la structure suivante :

<ph type="x-smartling-placeholder">
</ph> Champs
prompt object (TextPrompt)

Obligatoire. Texte d'entrée de forme libre transmis au modèle sous forme de requête.

À partir d'une requête, le modèle génère une réponse TextCompletion qu'il prédit comme l'achèvement du texte d'entrée.

safetySettings[] object (SafetySetting)

Facultatif. Liste d'instances SafetySetting uniques permettant de bloquer le contenu à risque.

qui sera appliqué à GenerateTextRequest.prompt et GenerateTextResponse.candidates. Il ne doit pas y avoir plus d'un paramètre par type de SafetyCategory. L'API bloquera toutes les invites et réponses qui ne respectent pas les seuils définis par ces paramètres. Cette liste remplace les paramètres par défaut pour chaque SafetyCategory spécifié dans les paramètres de sécurité. Si aucun SafetySetting ne figure dans la liste pour un SafetyCategory donné, l'API utilise le paramètre de sécurité par défaut pour cette catégorie. Les catégories de préjudices HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sont acceptées dans les services textuels.

stopSequences[] string

Ensemble de séquences de caractères (jusqu'à 5) qui arrêtent la génération de résultats. Si elle est spécifiée, l'API s'arrête à la première apparition d'une séquence d'arrêt. La séquence d'arrêt ne sera pas incluse dans la réponse.

temperature number

Facultatif. Contrôle le caractère aléatoire de la sortie. Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.temperature de Model qui a renvoyé la fonction getModel.

Les valeurs peuvent être comprises entre [0,0 et 1,0] inclus. Une valeur proche de 1,0 produira des réponses plus variées et créatives, tandis qu'une valeur plus proche de 0,0 donnera généralement des réponses plus simples du modèle.

candidateCount integer

Facultatif. Nombre de réponses générées à renvoyer.

Cette valeur doit être comprise entre [1 et 8] inclus. Si cette règle n'est pas configurée, la valeur par défaut est 1.

maxOutputTokens integer

Facultatif. Nombre maximal de jetons à inclure dans un candidat.

Si cette règle n'est pas configurée, la valeur "outputTokenLimit" est définie par défaut dans la spécification Model.

topP number

Facultatif. Probabilité cumulée maximale de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

Les jetons sont triés en fonction des probabilités qui leur sont attribuées, de sorte que seuls les jetons les plus probables soient pris en compte. L'échantillonnage top-k limite directement le nombre maximal de jetons à prendre en compte, tandis que l'échantillonnage Nucleus limite le nombre de jetons en fonction de la probabilité cumulée.

Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.top_p de Model qui a renvoyé la fonction getModel.

topK integer

Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.

Le modèle utilise un échantillonnage de top-k et de noyau.

L'échantillonnage top-k tient compte de l'ensemble de jetons les plus probables (topK). La valeur par défaut est 40.

Remarque: La valeur par défaut varie selon le modèle. Reportez-vous à l'attribut Model.top_k de Model qui a renvoyé la fonction getModel.

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de GenerateTextResponse.

ContentFilter

Métadonnées de filtrage du contenu associées au traitement d'une seule requête.

ContentFilter contient un motif et une chaîne secondaire facultative. Le motif peut ne pas être spécifié.

Représentation JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
Champs
reason enum (BlockedReason)

Raison pour laquelle le contenu a été bloqué lors du traitement de la demande.

message string

Chaîne qui décrit plus en détail le comportement de filtrage.

BlockedReason

Liste des raisons pour lesquelles un contenu a pu être bloqué.

Enums
BLOCKED_REASON_UNSPECIFIED Aucun motif de blocage n'a été spécifié.
SAFETY Le contenu a été bloqué par les paramètres de sécurité.
OTHER Le contenu a été bloqué, mais la raison n'est associée à aucune catégorie.

Embedding

Liste de floats représentant la représentation vectorielle continue.

Représentation JSON
{
  "value": [
    number
  ]
}
Champs
value[] number

Les valeurs de représentation vectorielle continue.

Message

Unité de base du texte structuré.

Un Message inclut un author et le content de Message.

L'author est utilisé pour taguer les messages lorsqu'ils sont transmis au modèle sous forme de texte.

Représentation JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Champs
author string

Facultatif. Auteur de ce message.

Cela servira de clé pour l'ajout de tags au contenu de ce message lorsqu'il sera transmis au modèle sous forme de texte.

L'auteur peut être n'importe quelle chaîne alphanumérique.

content string

Obligatoire. Contenu textuel de l'élément Message structuré.

citationMetadata object (CitationMetadata)

Uniquement en sortie. Informations sur la citation du content généré par le modèle dans Message.

Si cet Message a été généré en tant que sortie du modèle, ce champ peut être renseigné avec des informations d'attribution pour tout texte inclus dans content. Ce champ n'est utilisé que sur les résultats.

MessagePrompt

Tout le texte d'entrée structuré transmis au modèle en tant que requête.

Une MessagePrompt contient un ensemble structuré de champs qui fournissent du contexte pour la conversation, des exemples de paires de messages d'entrée utilisateur/de sortie du modèle qui préparent le modèle à répondre de différentes manières, ainsi que l'historique ou la liste de messages de la conversation représentant les tours de conversation alternés entre l'utilisateur et le modèle.

Représentation JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Champs
context string

Facultatif. Texte à fournir en premier au modèle pour baser la réponse.

Si ce champ n'est pas vide, l'élément context sera d'abord attribué au modèle avant examples et messages. Lorsque vous utilisez un context, veillez à le fournir à chaque requête afin d'assurer la continuité.

Ce champ peut servir de description de la requête que vous adressez au modèle afin de fournir du contexte et d'orienter les réponses. Exemples : "Traduis la phrase de l'anglais vers le français". ou "S'il s'agit d'une déclaration, classifie le sentiment comme étant heureux, triste ou neutre".

Tout élément inclus dans ce champ aura la priorité sur l'historique des messages si la taille totale de l'entrée dépasse la valeur inputTokenLimit du modèle et que la requête d'entrée est tronquée.

examples[] object (Example)

Facultatif. Exemples de ce que le modèle doit générer.

Cela inclut à la fois l'entrée utilisateur et la réponse que le modèle doit émuler.

Ces examples sont traités de la même manière que les messages de conversation, sauf qu'ils prévalent sur l'historique dans messages: si la taille totale de l'entrée dépasse la inputTokenLimit du modèle, l'entrée sera tronquée. Les éléments seront retirés de messages avant le examples.

messages[] object (Message)

Obligatoire. Instantané de l'historique des conversations récentes, trié chronologiquement

Alterne entre deux auteurs.

Si la taille totale de l'entrée dépasse la inputTokenLimit du modèle, l'entrée sera tronquée: les éléments les plus anciens seront supprimés de messages.

Exemple

Exemple d'entrée/de sortie utilisé pour donner des instructions au modèle.

Elle montre comment le modèle doit répondre ou mettre en forme sa réponse.

Représentation JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Champs
input object (Message)

Obligatoire. Exemple de Message d'entrée provenant de l'utilisateur.

output object (Message)

Obligatoire. Exemple de ce que le modèle doit générer en fonction de l'entrée.

GenerateTextResponse

Réponse du modèle, y compris les achèvements des candidats.

Représentation JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Champs
candidates[] object (TextCompletion)

Réponses du modèle

filters[] object (ContentFilter)

Ensemble de métadonnées de filtrage de contenu pour la requête et le texte de la réponse.

Cela permet d'indiquer le ou les SafetyCategory qui ont bloqué un candidat pour cette réponse, le HarmProbability le plus bas ayant déclenché un blocage et le paramètre HarmThreshold pour cette catégorie. Cela indique la plus petite modification de SafetySettings qui serait nécessaire pour débloquer au moins une réponse.

Le blocage est configuré par le SafetySettings de la requête (ou le SafetySettings par défaut de l'API).

safetyFeedback[] object (SafetyFeedback)

Affiche tout commentaire de sécurité concernant le filtrage du contenu.

TextCompletion

Texte de sortie renvoyé par un modèle.

Représentation JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Champs
output string

Uniquement en sortie. Texte généré renvoyé par le modèle.

safetyRatings[] object (SafetyRating)

Évaluations de la sécurité d'une réponse.

Il y a au maximum une note par catégorie.

citationMetadata object (CitationMetadata)

Uniquement en sortie. Informations sur la citation du output généré par le modèle dans TextCompletion.

Ce champ peut être renseigné avec les informations d'attribution de tout texte inclus dans l'output.

SafetyFeedback

Commentaires de sécurité pour l'intégralité d'une requête.

Ce champ est renseigné si le contenu de l'entrée et/ou de la réponse est bloqué en raison des paramètres de sécurité. SafetyFeedback peut ne pas exister pour chaque HarmCategory. Chaque SafetyFeedback renvoie les paramètres de sécurité utilisés par la requête, ainsi que la probabilité "HarmProbability" la plus basse qui doit être autorisée pour renvoyer un résultat.

Représentation JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Champs
rating object (SafetyRating)

Évaluation de la sécurité à partir du contenu.

setting object (SafetySetting)

Paramètres de sécurité appliqués à la requête.

TextPrompt

Texte fourni au modèle sous forme de requête.

Le modèle va utiliser cette requête de texte pour générer une saisie semi-automatique de texte.

Représentation JSON
{
  "text": string
}
Champs
text string

Obligatoire. Texte de la requête.