Méthode: models.generateText
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Génère une réponse du modèle à partir d'un message d'entrée.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom de l'Model
ou de l'TunedModel
à utiliser pour générer la saisie semi-automatique. Exemples: models/text-bison-001 tunedModels/sentence-translator-u3b7m Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
prompt
object (TextPrompt
)
Obligatoire. Texte d'entrée en mode libre donné au modèle en tant que requête.
À partir d'une requête, le modèle génère une réponse TextCompletion qu'il prédit comme étant la fin du texte saisi.
safetySettings[]
object (SafetySetting
)
Facultatif. Liste d'instances SafetySetting
uniques pour le blocage du contenu non sécurisé.
qui sera appliqué sur les GenerateTextRequest.prompt
et GenerateTextResponse.candidates
. Il ne doit pas y avoir plus d'un paramètre pour chaque type SafetyCategory
. L'API bloque toutes les invites et réponses qui ne respectent pas les seuils définis par ces paramètres. Cette liste remplace les paramètres par défaut de chaque SafetyCategory
spécifié dans les paramètres de sécurité. Si aucun SafetySetting
n'est fourni dans la liste pour un SafetyCategory
donné, l'API utilise le paramètre de sécurité par défaut pour cette catégorie. Les catégories de préjudice HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL et HARM_CATEGORY_DANGEROUS sont acceptées dans le service de texte.
stopSequences[]
string
Ensemble de séquences de caractères (jusqu'à cinq) qui arrêtent la génération de sortie. Si elle est spécifiée, l'API s'arrête à la première apparition d'une séquence d'arrêt. La séquence d'arrêt ne sera pas incluse dans la réponse.
temperature
number
Facultatif. Contrôle le caractère aléatoire de la sortie. Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.temperature
de l'Model
renvoyé par la fonction getModel
.
Les valeurs peuvent être comprises entre [0,0] et [1,0], inclus. Une valeur proche de 1,0 génère des réponses plus variées et créatives, tandis qu'une valeur proche de 0,0 génère généralement des réponses plus directes du modèle.
candidateCount
integer
Facultatif. Nombre de réponses générées à renvoyer.
Cette valeur doit être comprise entre 1 et 8 inclus. Si cette valeur n'est pas définie, elle est définie par défaut sur 1.
maxOutputTokens
integer
Facultatif. Nombre maximal de jetons à inclure dans une candidate.
Si cette valeur n'est pas définie, la valeur par défaut est outputTokenLimit spécifiée dans la spécification Model
.
topP
number
Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.
Le modèle utilise un échantillonnage combiné Top-k et noyau.
Les jetons sont triés en fonction des probabilités qui leur sont attribuées afin que seuls les plus probables soient pris en compte. L'échantillonnage Top-K limite directement le nombre maximal de jetons à prendre en compte, tandis que l'échantillonnage Nucleus limite le nombre de jetons en fonction de la probabilité cumulée.
Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_p
de l'Model
renvoyé par la fonction getModel
.
topK
integer
Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.
Le modèle combine l'échantillonnage top-k et l'échantillonnage du noyau.
L'échantillonnage top-k prend en compte l'ensemble des topK
jetons les plus probables. Valeur par défaut : 40.
Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_k
de l'Model
renvoyé par la fonction getModel
.
Corps de la réponse
Si la requête aboutit, le corps de la réponse contient une instance de GenerateTextResponse
.
Méthode: models.countTextTokens
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Exécute le tokenizer d'un modèle sur un texte et renvoie le nombre de jetons.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom de la ressource du modèle. Il s'agit d'un identifiant que le modèle doit utiliser.
Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list
.
Format: models/{model}
Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
prompt
object (TextPrompt
)
Obligatoire. Texte d'entrée en mode libre donné au modèle en tant que requête.
Corps de la réponse
Réponse de models.countTextTokens
.
Elle renvoie le tokenCount
du modèle pour le prompt
.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
tokenCount
integer
Nombre de jetons que model
tokenize prompt
.
Cette valeur ne doit pas être négative.
Représentation JSON |
---|
{ "tokenCount": integer } |
Méthode: models.generateMessage
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Génère une réponse du modèle à partir d'une entrée MessagePrompt
.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom du modèle à utiliser.
Format : name=models/{model}
. Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
prompt
object (MessagePrompt
)
Obligatoire. Entrée textuelle structurée fournie au modèle en tant que requête.
À partir d'une invite, le modèle renvoie ce qu'il prédit être le prochain message de la discussion.
temperature
number
Facultatif. Contrôle le caractère aléatoire de la sortie.
Les valeurs peuvent être supérieures à [0.0,1.0]
(inclus). Une valeur plus proche de 1.0
génère des réponses plus variées, tandis qu'une valeur plus proche de 0.0
génère généralement des réponses moins surprenantes du modèle.
candidateCount
integer
Facultatif. Nombre de messages de réponse générés à renvoyer.
Cette valeur doit être comprise entre [1, 8]
inclus. Si cette valeur n'est pas définie, la valeur par défaut est 1
.
topP
number
Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.
Le modèle utilise un échantillonnage combiné Top-k et noyau.
L'échantillonnage du noyau prend en compte le plus petit ensemble de jetons dont la somme des probabilités est d'au moins topP
.
topK
integer
Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.
Le modèle combine l'échantillonnage top-k et l'échantillonnage du noyau.
L'échantillonnage top-k prend en compte l'ensemble des topK
jetons les plus probables.
Corps de la réponse
Réponse du modèle.
Cela inclut les messages candidats et l'historique des conversations sous la forme de messages classés dans l'ordre chronologique.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
candidates[]
object (Message
)
Messages de réponse candidats du modèle.
messages[]
object (Message
)
Historique de la conversation utilisé par le modèle.
filters[]
object (ContentFilter
)
Ensemble de métadonnées de filtrage du contenu pour le texte de l'invite et de la réponse.
Il indique les SafetyCategory
qui ont bloqué un candidat dans cette réponse, le HarmProbability
le plus bas ayant déclenché un blocage et le paramètre HarmThreshold pour cette catégorie.
Représentation JSON |
---|
{ "candidates": [ { object ( |
Méthode: models.countMessageTokens
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Exécute le tokenizer d'un modèle sur une chaîne et renvoie le nombre de jetons.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom de la ressource du modèle. Il s'agit d'un identifiant que le modèle doit utiliser.
Ce nom doit correspondre à un nom de modèle renvoyé par la méthode models.list
.
Format: models/{model}
Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
prompt
object (MessagePrompt
)
Obligatoire. Requête dont le nombre de jetons doit être renvoyé.
Corps de la réponse
Réponse de models.countMessageTokens
.
Elle renvoie le tokenCount
du modèle pour le prompt
.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
tokenCount
integer
Nombre de jetons que model
tokenize prompt
.
Cette valeur ne doit pas être négative.
Représentation JSON |
---|
{ "tokenCount": integer } |
Méthode: models.embedText
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Génère un entraînement à partir du modèle à partir d'un message d'entrée.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom du modèle à utiliser avec le format model=models/{model}. Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
text
string
Facultatif. Texte d'entrée au format libre que le modèle transformera en embeddings.
Corps de la réponse
Réponse à une requête EmbedTextRequest.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
embedding
object (Embedding
)
Uniquement en sortie. Embedding généré à partir du texte d'entrée.
Représentation JSON |
---|
{
"embedding": {
object ( |
Méthode: models.batchEmbedText
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
- EmbedTextRequest
Génère plusieurs embeddings à partir du modèle donné le texte d'entrée dans un appel synchrone.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom de l'Model
à utiliser pour générer l'encapsulation. Exemples: models/embedding-gecko-001. Il se présente sous la forme models/{model}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
texts[]
string
Facultatif. Textes d'entrée libres que le modèle transformera en embeddings. La limite actuelle est de 100 textes. Si vous dépassez cette limite, une erreur sera générée.
requests[]
object (EmbedTextRequest
)
Facultatif. Intégrez les requêtes pour le lot. Vous ne pouvez définir qu'un seul élément texts
ou requests
.
Corps de la réponse
Réponse à une requête EmbedTextRequest.
Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :
embeddings[]
object (Embedding
)
Uniquement en sortie. Les embeddings générés à partir du texte d'entrée.
Représentation JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Demande d'obtenir un embedding textuel à partir du modèle.
model
string
Obligatoire. Nom du modèle à utiliser avec le format model=models/{model}.
text
string
Facultatif. Texte d'entrée au format libre que le modèle transformera en embeddings.
Représentation JSON |
---|
{ "model": string, "text": string } |
Méthode: tunedModels.generateText
- Point de terminaison
- Paramètres de chemin d'accès
- Corps de la requête
- Corps de la réponse
- Champs d'application des autorisations
Génère une réponse du modèle à partir d'un message d'entrée.
Point de terminaison
Posterhttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
L'URL utilise la syntaxe de transcodage gRPC.
Paramètres de chemin d'accès
model
string
Obligatoire. Nom de l'Model
ou de l'TunedModel
à utiliser pour générer la saisie semi-automatique. Exemples: models/text-bison-001 tunedModels/sentence-translator-u3b7m Il se présente sous la forme tunedModels/{tunedmodel}
.
Corps de la requête
Le corps de la requête contient des données présentant la structure suivante :
prompt
object (TextPrompt
)
Obligatoire. Texte d'entrée en mode libre donné au modèle en tant que requête.
À partir d'une requête, le modèle génère une réponse TextCompletion qu'il prédit comme étant la fin du texte saisi.
safetySettings[]
object (SafetySetting
)
Facultatif. Liste d'instances SafetySetting
uniques pour le blocage du contenu non sécurisé.
qui sera appliqué sur les GenerateTextRequest.prompt
et GenerateTextResponse.candidates
. Il ne doit pas y avoir plus d'un paramètre pour chaque type SafetyCategory
. L'API bloque toutes les invites et réponses qui ne respectent pas les seuils définis par ces paramètres. Cette liste remplace les paramètres par défaut de chaque SafetyCategory
spécifié dans les paramètres de sécurité. Si aucun SafetySetting
n'est fourni dans la liste pour un SafetyCategory
donné, l'API utilise le paramètre de sécurité par défaut pour cette catégorie. Les catégories de préjudice HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL et HARM_CATEGORY_DANGEROUS sont acceptées dans le service de texte.
stopSequences[]
string
Ensemble de séquences de caractères (jusqu'à cinq) qui arrêtent la génération de sortie. Si elle est spécifiée, l'API s'arrête à la première apparition d'une séquence d'arrêt. La séquence d'arrêt ne sera pas incluse dans la réponse.
temperature
number
Facultatif. Contrôle le caractère aléatoire de la sortie. Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.temperature
de l'Model
renvoyé par la fonction getModel
.
Les valeurs peuvent être comprises entre [0,0] et [1,0], inclus. Une valeur proche de 1,0 génère des réponses plus variées et créatives, tandis qu'une valeur proche de 0,0 génère généralement des réponses plus directes du modèle.
candidateCount
integer
Facultatif. Nombre de réponses générées à renvoyer.
Cette valeur doit être comprise entre 1 et 8 inclus. Si cette valeur n'est pas définie, elle est définie par défaut sur 1.
maxOutputTokens
integer
Facultatif. Nombre maximal de jetons à inclure dans une candidate.
Si cette valeur n'est pas définie, la valeur par défaut est outputTokenLimit spécifiée dans la spécification Model
.
topP
number
Facultatif. Probabilité cumulée maximale des jetons à prendre en compte lors de l'échantillonnage.
Le modèle utilise un échantillonnage combiné Top-k et noyau.
Les jetons sont triés en fonction des probabilités qui leur sont attribuées afin que seuls les plus probables soient pris en compte. L'échantillonnage Top-K limite directement le nombre maximal de jetons à prendre en compte, tandis que l'échantillonnage Nucleus limite le nombre de jetons en fonction de la probabilité cumulée.
Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_p
de l'Model
renvoyé par la fonction getModel
.
topK
integer
Facultatif. Nombre maximal de jetons à prendre en compte lors de l'échantillonnage.
Le modèle combine l'échantillonnage top-k et l'échantillonnage du noyau.
L'échantillonnage top-k prend en compte l'ensemble des topK
jetons les plus probables. Valeur par défaut : 40.
Remarque: La valeur par défaut varie selon le modèle. Consultez l'attribut Model.top_k
de l'Model
renvoyé par la fonction getModel
.
Corps de la réponse
Si la requête aboutit, le corps de la réponse contient une instance de GenerateTextResponse
.
ContentFilter
Métadonnées de filtrage du contenu associées au traitement d'une seule requête.
ContentFilter contient un motif et une chaîne d'accompagnement facultative. Le motif peut ne pas être spécifié.
reason
enum (BlockedReason
)
Raison pour laquelle le contenu a été bloqué lors du traitement de la demande.
message
string
Chaîne décrivant plus en détail le comportement de filtrage.
Représentation JSON |
---|
{
"reason": enum ( |
BlockedReason
Liste des raisons pour lesquelles un contenu peut avoir été bloqué.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Aucun motif de blocage n'a été spécifié. |
SAFETY |
Le contenu a été bloqué par les paramètres de sécurité. |
OTHER |
Le contenu a été bloqué, mais la raison n'est pas catégorisée. |
Embedding
Liste de nombres à virgule flottante représentant l'embedding.
value[]
number
Les valeurs d'embedding.
Représentation JSON |
---|
{ "value": [ number ] } |
Message
Unité de base du texte structuré.
Un Message
inclut un author
et le content
de l'Message
.
author
permet de taguer les messages lorsqu'ils sont fournis au modèle sous forme de texte.
content
string
Obligatoire. Contenu textuel de l'Message
structuré.
citationMetadata
object (CitationMetadata
)
Uniquement en sortie. Informations de citation pour les content
générées par le modèle dans cette Message
.
Si ce Message
a été généré en sortie du modèle, ce champ peut être renseigné avec des informations d'attribution pour tout texte inclus dans le content
. Ce champ n'est utilisé que pour la sortie.
Représentation JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Tout le texte d'entrée structuré transmis au modèle en tant que requête.
Un MessagePrompt
contient un ensemble structuré de champs qui fournissent le contexte de la conversation, des exemples de paires de messages d'entrée utilisateur/de sortie du modèle qui préparent le modèle à répondre de différentes manières, ainsi que l'historique de la conversation ou la liste des messages représentant les tours alternés de la conversation entre l'utilisateur et le modèle.
context
string
Facultatif. Texte qui doit être fourni au modèle en premier pour orienter la réponse.
Si ce n'est pas le cas, context
sera d'abord transmis au modèle avant examples
et messages
. Lorsque vous utilisez un context
, veillez à le fournir à chaque requête pour assurer la continuité.
Ce champ peut être une description de votre requête au modèle pour fournir du contexte et guider les réponses. Exemples: "Traduire la phrase de l'anglais vers le français" ou "Classer le sentiment d'une déclaration en fonction de son intensité (joie, tristesse ou neutralité)".
Tout élément inclus dans ce champ aura la priorité sur l'historique des messages si la taille totale de l'entrée dépasse la inputTokenLimit
du modèle et que la requête d'entrée est tronquée.
examples[]
object (Example
)
Facultatif. Exemples de ce que le modèle doit générer.
Cela inclut à la fois l'entrée utilisateur et la réponse que le modèle doit émuler.
Ces examples
sont traités de la même manière que les messages de conversation, sauf qu'ils prévalent sur l'historique dans messages
: si la taille totale de l'entrée dépasse la inputTokenLimit
du modèle, l'entrée est tronquée. Les éléments seront supprimés de messages
avant examples
.
messages[]
object (Message
)
Obligatoire. Instantané de l'historique des conversations récentes, trié par ordre chronologique.
Les tours alternent entre deux auteurs.
Si la taille totale de l'entrée dépasse la inputTokenLimit
du modèle, l'entrée sera tronquée: les éléments les plus anciens seront supprimés de messages
.
Exemple
Exemple d'entrée/sortie utilisé pour instruire le modèle.
Il montre comment le modèle doit répondre ou mettre en forme sa réponse.
input
object (Message
)
Obligatoire. Exemple d'entrée Message
de l'utilisateur.
output
object (Message
)
Obligatoire. Exemple de sortie du modèle en fonction de l'entrée.
GenerateTextResponse
Réponse du modèle, y compris les suggestions de fin.
candidates[]
object (TextCompletion
)
Réponses candidates du modèle.
filters[]
object (ContentFilter
)
Ensemble de métadonnées de filtrage du contenu pour le texte de l'invite et de la réponse.
Il indique les SafetyCategory
qui ont bloqué un candidat dans cette réponse, le HarmProbability
le plus bas ayant déclenché un blocage et le paramètre HarmThreshold pour cette catégorie. Il indique la plus petite modification apportée à SafetySettings
qui serait nécessaire pour débloquer au moins une réponse.
Le blocage est configuré par le SafetySettings
dans la requête (ou le SafetySettings
par défaut de l'API).
safetyFeedback[]
object (SafetyFeedback
)
Renvoie tous les commentaires de sécurité liés au filtrage de contenu.
Représentation JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Texte de sortie renvoyé par un modèle.
output
string
Uniquement en sortie. Texte généré renvoyé par le modèle.
safetyRatings[]
object (SafetyRating
)
Évaluations de la sécurité d'une réponse.
Il ne peut y avoir qu'une seule classification par catégorie.
citationMetadata
object (CitationMetadata
)
Uniquement en sortie. Informations de citation pour les output
générées par le modèle dans cette TextCompletion
.
Ce champ peut être renseigné avec des informations d'attribution pour tout texte inclus dans le output
.
Représentation JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Commentaires sur la sécurité pour l'ensemble d'une requête.
Ce champ est renseigné si le contenu de l'entrée et/ou de la réponse est bloqué en raison de paramètres de sécurité. Il est possible que SafetyFeedback n'existe pas pour chaque catégorie de danger. Chaque SafetyFeedback renvoie les paramètres de sécurité utilisés par la requête, ainsi que la probabilité de danger la plus faible qui doit être autorisée pour renvoyer un résultat.
rating
object (SafetyRating
)
Classification de sécurité évaluée à partir du contenu.
setting
object (SafetySetting
)
Paramètres de sécurité appliqués à la requête.
Représentation JSON |
---|
{ "rating": { object ( |