1
« " Je pense à un mot et je dois vous amener à le deviner. Mais je ne peux pas dire le mot lui-même. Je vous donne des indices, et vous répondrez par une supposition. Votre estimation ne doit comprendre qu'un seul mot."
examples = [
[
"L'union fait la force. Cela rend l'appareil plus confortable pour s'asseoir.",
"Un oreiller ?"
],
[
"Vous pourriez les trouver sur un canapé.",
"Un coussin ?"
],
[
"Oui. Ok, suivant. C'est quelque chose que vous pouvez utiliser lorsque des gouttes tombent du ciel", "Un parapluie ?"
],
[
"Suivant: Oups",
"Une erreur ?"
],
[
"À suivre: bouh",
"Un bouh ?"
],
[
"Non, un autre mot pour ça",
"Une blessure ?"
]
]
messages = [
"C'est un genre de créature qui a vécu il y a très longtemps",
"Un dinosaure ?",
"Suivant: Voici un aliment qui a des feuilles",
"De la salade ?",
"Tu pourrais l'utiliser pour faire ce à quoi je pense",
"Une salade ?"
]
messages.append("REQUÊTE SUIVANTE")
response = genai.chat(
**par défaut,
context=context,
exemples=examples,
messages=messages
)
print(response.last) # Réponse de l'IA à votre requête la plus récente
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
27
28
29
30
31
32
33
34
35
const { DiscussServiceClient } = required("@google-ai/generativelanguage}}"; const { GoogleAuth } = required("google-auth-library);
const MODEL_NAME = "models/chat-bison-001";
const API_KEY = "YOUR API KEY";
const client = new DiscussServiceClient({API.KEY), new Google) Je pense à un mot et je dois vous amener à le deviner. Mais je ne peux pas dire le mot lui-même. Je vous donne des indices, et vous répondrez par une supposition. Votre hypothèse ne doit comporter qu'un seul mot.";
const examples = [
{
"input": {
"content": "Les plumes s'enchaînent dès que l'on s'assoit."
},
"output": {
"content": "Un oreiller ?"
}
},
{
"input": {
"content": "Vous trouverez peut-être ceci sur votre canapé."
},
"output": {
"content": "Un coussin ?"
}
},
{
"input": {
"content": "Oui. Ok, suivant. Vous pouvez l'utiliser lorsque des gouttes tombent du ciel"
},
"output": {
"content": "Un parapluie ?"
}
},
{
"input": {
"content": "À suivre: Oups"
},
"output": {
"content": "Une erreur ?"
}
},
{
"input": {
"content": "À suivre: bouh !"
},
"output": {
"content": "Bouh ?"
}
},
{
"input": {
"content": "Non, autre mot pour ça"
},
"output": {
"content": "Une blessure ?"
}
}
];
const messages = [
{
"content": "C'est un type de créature qui a vécu très longtemps"
},
{
"content": "Un dinosaure ?"
},
{
"content": "À suivre: Voici un aliment qui a des feuilles"
},
{
"content": "La laitue ?"
},
{
"content": "Vous pourriez l'utiliser pour faire ce à quoi je pense"
},
{
"content": "Une salade ?"
}
];
messages.push({ "content": "NEXT REQUEST" });
client.generateMessage({
// required, which model to use to generate the results model: MODEL_NAME,
// optional, 0.0 Use the most-probability results
température: 0.25,
//optional, how number number additional candidate results to improve
//optional examples: