Caching

La mise en cache du contexte vous permet d'enregistrer et de réutiliser les jetons d'entrée précalculés que vous souhaitez utiliser à plusieurs reprises, par exemple lorsque vous posez différentes questions sur le même fichier multimédia. Cela peut permettre de réduire les coûts et la vitesse, selon l'utilisation. Pour en savoir plus, consultez le guide Mise en cache contextuelle.

Méthode: cachedContents.create

Crée une ressource CachedContent.

Point de terminaison

post https://generativelanguage.googleapis.com/v1beta/cachedContents

Corps de la requête

Le corps de la requête contient une instance de CachedContent.

Champs
contents[] object (Content)

Facultatif. Uniquement en entrée. Immuable. Contenu à mettre en cache.

tools[] object (Tool)

Facultatif. Uniquement en entrée. Immuable. Liste des Tools que le modèle peut utiliser pour générer la réponse suivante

Champ d'union expiration. Indique la date d'expiration de cette ressource. expiration ne peut être qu'un des éléments suivants :
expireTime string (Timestamp format)

Code temporel en UTC du moment où cette ressource est considérée comme expirée. Cette valeur est toujours fournie en sortie, quelle que soit ce qui a été envoyé en entrée.

Horodatage au format RFC3339 UTC "Zulu", avec une résolution de l'ordre de la nanoseconde et jusqu'à neuf chiffres décimaux. Exemples : "2014-10-02T15:01:23Z" et "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Uniquement en entrée. Nouveau TTL pour cette ressource, en entrée uniquement.

Durée en secondes avec neuf chiffres au maximum après la virgule et se terminant par "s". Exemple : "3.5s"

name string

Facultatif. Identifiant. Nom de la ressource faisant référence au contenu mis en cache. Format : cachedContents/{id}

displayName string

Facultatif. Immuable. Nom à afficher explicite, généré par l'utilisateur, pour le contenu mis en cache 128 caractères Unicode au maximum.

model string

Obligatoire. Immuable. Nom de l'Model à utiliser pour le contenu mis en cache. Format: models/{model}

systemInstruction object (Content)

Facultatif. Uniquement en entrée. Immuable. Instruction concernant le système défini par le développeur. Texte uniquement pour le moment.

toolConfig object (ToolConfig)

Facultatif. Uniquement en entrée. Immuable. Configuration de l'outil Cette configuration est partagée pour tous les outils.

Exemple de requête

De base

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(cache)

model = genai.GenerativeModel.from_cached_content(cache)
response = model.generate_content("Please summarize this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});

console.log(cacheResult);

const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(cacheResult);
const result = await model.generateContent(
  "Please summarize this transcript.",
);
console.log(result.response.text());

Go

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
prompt := "Please summarize this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Coquille Rose

wget https://storage.googleapis.com/generativeai-downloads/data/a11.txt
echo '{
  "model": "models/gemini-1.5-flash-001",
  "contents":[
    {
      "parts":[
        {
          "inline_data": {
            "mime_type":"text/plain",
            "data": "'$(base64 $B64FLAGS a11.txt)'"
          }
        }
      ],
    "role": "user"
    }
  ],
  "systemInstruction": {
    "parts": [
      {
        "text": "You are an expert at analyzing transcripts."
      }
    ]
  },
  "ttl": "300s"
}' > request.json

curl -X POST "https://generativelanguage.googleapis.com/v1beta/cachedContents?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d @request.json \
 > cache.json

CACHE_NAME=$(cat cache.json | grep '"name":' | cut -d '"' -f 4 | head -n 1)

curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-001:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
      "contents": [
        {
          "parts":[{
            "text": "Please summarize this transcript"
          }],
          "role": "user"
        },
      ],
      "cachedContent": "'$CACHE_NAME'"
    }'

Nom de l'expéditeur

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache_name = cache.name  # Save the name for later

# Later
cache = genai.caching.CachedContent.get(cache_name)
apollo_model = genai.GenerativeModel.from_cached_content(cache)
response = apollo_model.generate_content("Find a lighthearted moment from this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheName = cacheResult.name; // Save the name for later.

// Later
const getCacheResult = await cacheManager.get(cacheName);
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(getCacheResult);
model.generateContent("Please summarize this transcript.");

Go

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Depuis le chat

Python

model_name = "gemini-1.5-flash-001"
system_instruction = "You are an expert analyzing transcripts."

model = genai.GenerativeModel(model_name=model_name, system_instruction=system_instruction)
chat = model.start_chat()
document = genai.upload_file(path=media / "a11.txt")
response = chat.send_message(["Hi, could you summarize this transcript?", document])
print("\n\nmodel:  ", response.text)
response = chat.send_message(
    ["Okay, could you tell me more about the trans-lunar injection"]
)
print("\n\nmodel:  ", response.text)

# To cache the conversation so far, pass the chat history as the list of "contents".
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction=system_instruction,
    contents=chat.history,
)
model = genai.GenerativeModel.from_cached_content(cached_content=cache)

# Continue the chat where you left off.
chat = model.start_chat()
response = chat.send_message(
    "I didn't understand that last part, could you explain it in simpler language?"
)
print("\n\nmodel:  ", response.text)

Node.js

// Make sure to include these imports:
// import { GoogleGenerativeAI } from "@google/generative-ai";
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash-001" });
const chat = model.startChat();

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

let result = await chat.sendMessage([
  "Hi, could you summarize this transcript?",
  {
    fileData: {
      fileUri: uploadResult.file.uri,
      mimeType: uploadResult.file.mimeType,
    },
  },
]);
console.log(`\n\nmodel: ${result.response.text()}`);
result = await chat.sendMessage(
  "Okay, could you tell me more about the trans-lunar injection",
);
console.log(`\n\nmodel: ${result.response.text()}`);

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: await chat.getHistory(),
});

const newModel = genAI.getGenerativeModelFromCachedContent(cacheResult);

const newChat = newModel.startChat();
result = await newChat.sendMessage(
  "I didn't understand that last part, could you explain it in simpler language?",
);
console.log(`\n\nmodel: ${result.response.text()}`);

Go

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

modelName := "gemini-1.5-flash-001"
model := client.GenerativeModel(modelName)
model.SystemInstruction = genai.NewUserContent(genai.Text("You are an expert analyzing transcripts."))

cs := model.StartChat()
resp, err := cs.SendMessage(ctx, genai.Text("Hi, could you summarize this transcript?"), fd)
if err != nil {
	log.Fatal(err)
}

resp, err = cs.SendMessage(ctx, genai.Text("Okay, could you tell me more about the trans-lunar injection"))
if err != nil {
	log.Fatal(err)
}

// To cache the conversation so far, pass the chat history as the list of
// contents.

argcc := &genai.CachedContent{
	Model:             modelName,
	SystemInstruction: model.SystemInstruction,
	Contents:          cs.History,
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
cs = modelWithCache.StartChat()
resp, err = cs.SendMessage(ctx, genai.Text("I didn't understand that last part, could you please explain it in simpler language?"))
if err != nil {
	log.Fatal(err)
}
printResponse(resp)

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une nouvelle instance de CachedContent.

Méthode: cachedContents.list

Répertorie les CachedContents.

Point de terminaison

obtenir https://generativelanguage.googleapis.com/v1beta/cachedContents

Paramètres de requête

pageSize integer

Facultatif. Nombre maximal de contenus mis en cache à renvoyer. Le service peut renvoyer un nombre inférieur à cette valeur. Si ce paramètre n'est pas spécifié, un nombre d'éléments par défaut (inférieur au maximum) est renvoyé. La valeur maximale est 1 000. Les valeurs supérieures sont réduites à 1 000.

pageToken string

Facultatif. Jeton de page reçu d'un appel cachedContents.list précédent. Fournissez-le pour récupérer la page suivante.

Lors de la pagination, tous les autres paramètres fournis à cachedContents.list doivent correspondre à l'appel ayant fourni le jeton de page.

Corps de la requête

Le corps de la requête doit être vide.

Corps de la réponse

Réponse avec la liste CachedContents.

Si la requête aboutit, le corps de la réponse contient des données qui ont la structure suivante :

Champs
cachedContents[] object (CachedContent)

Liste des contenus mis en cache.

nextPageToken string

Jeton pouvant être envoyé en tant que pageToken pour récupérer la page suivante. Si ce champ est omis, il n'y a pas d'autres pages.

Représentation JSON
{
  "cachedContents": [
    {
      object (CachedContent)
    }
  ],
  "nextPageToken": string
}

Méthode: cachedContents.get

Lit la ressource CachedContent.

Point de terminaison

get https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Paramètres de chemin d'accès

name string

Obligatoire. Nom de ressource faisant référence à l'entrée du cache de contenu. Format: cachedContents/{id}. Il se présente sous la forme cachedContents/{cachedcontent}.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(genai.caching.CachedContent.get(name=cache.name))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheGetResult = await cacheManager.get(cacheResult.name);
console.log(cacheGetResult);

Go

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Coquille Rose

curl "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de CachedContent.

Méthode: cachedContents.patch

Met à jour la ressource CachedContent (seule l'expiration peut être modifiée).

Point de terminaison

patch https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

PATCH https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

Paramètres de chemin d'accès

cachedContent.name string

Facultatif. Identifiant. Nom de la ressource faisant référence au contenu mis en cache. Format: cachedContents/{id}. Il se présente sous la forme cachedContents/{cachedcontent}.

Paramètres de requête

updateMask string (FieldMask format)

Liste des champs à mettre à jour.

Il s'agit d'une liste de noms de champs complets séparés par une virgule. Exemple : "user.displayName,photo"

Corps de la requête

Le corps de la requête contient une instance de CachedContent.

Champs
Champ d'union expiration. Indique quand cette ressource expirera. expiration ne peut être qu'un des éléments suivants :
expireTime string (Timestamp format)

Code temporel en UTC du moment où cette ressource est considérée comme expirée. Cette valeur est toujours fournie en sortie, quelle que soit ce qui a été envoyé en entrée.

Horodatage au format RFC3339 UTC "Zulu", avec une résolution de l'ordre de la nanoseconde et jusqu'à neuf chiffres décimaux. Exemples : "2014-10-02T15:01:23Z" et "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Uniquement en entrée. Nouveau TTL pour cette ressource, en entrée uniquement.

Durée en secondes avec neuf chiffres au maximum après la virgule et se terminant par "s". Exemple : "3.5s"

name string

Facultatif. Identifiant. Nom de la ressource faisant référence au contenu mis en cache. Format : cachedContents/{id}

Exemple de requête

Python

import datetime

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)

# You can update the ttl
cache.update(ttl=datetime.timedelta(hours=2))
print(f"After update:\n {cache}")

# Or you can update the expire_time
cache.update(expire_time=datetime.datetime.now() + datetime.timedelta(minutes=15))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
console.log("initial cache data:", cacheResult);
const cacheUpdateResult = await cacheManager.update(cacheResult.name, {
  cachedContent: {
    // 2 hours
    ttlSeconds: 60 * 60 * 2,
  },
});
console.log("updated cache data:", cacheUpdateResult);

Go

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Coquille Rose

curl -X PATCH "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d '{"ttl": "600s"}'

Corps de la réponse

Si la requête aboutit, le corps de la réponse contient une instance de CachedContent.

Méthode: cachedContents.delete

Supprime la ressource CachedContent.

Point de terminaison

delete https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Paramètres de chemin d'accès

name string

Obligatoire. Nom de la ressource faisant référence à l'entrée de cache de contenu. Format: cachedContents/{id}. Se présente sous la forme cachedContents/{cachedcontent}.

Corps de la requête

Le corps de la requête doit être vide.

Exemple de requête

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache.delete()

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
await cacheManager.delete(cacheResult.name);

Go

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Coquille Rose

curl -X DELETE "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Corps de la réponse

Si la requête aboutit, le corps de la réponse est vide.

Ressource REST: cachedContents

Ressource: CachedContent

Contenu qui a été prétraité et qui peut être utilisé dans les requêtes ultérieures envoyées à GenerativeService.

Le contenu mis en cache ne peut être utilisé qu'avec le modèle pour lequel il a été créé.

Champs
contents[] object (Content)

Facultatif. Uniquement en entrée. Immuable. Contenu à mettre en cache.

tools[] object (Tool)

Facultatif. Uniquement en entrée. Immuable. Liste des Tools que le modèle peut utiliser pour générer la réponse suivante

createTime string (Timestamp format)

Uniquement en sortie. Heure de création de l'entrée de cache.

Horodatage au format RFC3339 UTC "Zulu", avec une résolution de l'ordre de la nanoseconde et jusqu'à neuf chiffres décimaux. Exemples : "2014-10-02T15:01:23Z" et "2014-10-02T15:01:23.045123456Z".

updateTime string (Timestamp format)

Uniquement en sortie. Date et heure de la dernière mise à jour de l'entrée de cache en temps UTC.

Horodatage au format RFC3339 UTC "Zulu", avec une résolution de l'ordre de la nanoseconde et jusqu'à neuf chiffres décimaux. Exemples : "2014-10-02T15:01:23Z" et "2014-10-02T15:01:23.045123456Z".

usageMetadata object (UsageMetadata)

Uniquement en sortie. Métadonnées sur l'utilisation du contenu mis en cache.

Champ d'union expiration. Indique quand cette ressource expirera. expiration ne peut être qu'un des éléments suivants :
expireTime string (Timestamp format)

Code temporel en UTC du moment où cette ressource est considérée comme expirée. Cette valeur est toujours fournie en sortie, quelle que soit ce qui a été envoyé en entrée.

Horodatage au format RFC3339 UTC "Zulu", avec une résolution de l'ordre de la nanoseconde et jusqu'à neuf chiffres décimaux. Exemples : "2014-10-02T15:01:23Z" et "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Uniquement en entrée. Nouveau TTL pour cette ressource, en entrée uniquement.

Durée en secondes avec neuf chiffres au maximum après la virgule et se terminant par "s". Exemple : "3.5s"

name string

Facultatif. Identifiant. Nom de la ressource faisant référence au contenu mis en cache. Format : cachedContents/{id}

displayName string

Facultatif. Immuable. Nom à afficher explicite, généré par l'utilisateur, pour le contenu mis en cache 128 caractères Unicode au maximum.

model string

Obligatoire. Immuable. Nom de l'Model à utiliser pour le contenu mis en cache. Format: models/{model}

systemInstruction object (Content)

Facultatif. Uniquement en entrée. Immuable. Instruction concernant le système défini par le développeur. Texte uniquement pour le moment.

toolConfig object (ToolConfig)

Facultatif. Uniquement en entrée. Immuable. Configuration de l'outil. Cette configuration est partagée pour tous les outils.

Représentation JSON
{
  "contents": [
    {
      object (Content)
    }
  ],
  "tools": [
    {
      object (Tool)
    }
  ],
  "createTime": string,
  "updateTime": string,
  "usageMetadata": {
    object (UsageMetadata)
  },

  // Union field expiration can be only one of the following:
  "expireTime": string,
  "ttl": string
  // End of list of possible types for union field expiration.
  "name": string,
  "displayName": string,
  "model": string,
  "systemInstruction": {
    object (Content)
  },
  "toolConfig": {
    object (ToolConfig)
  }
}

Contenu

Type de données structurées de base contenant le contenu d'un message en plusieurs parties.

Un Content inclut un champ role désignant le producteur du Content et un champ parts contenant des données en plusieurs parties qui contiennent le contenu de l'échange de messages.

Champs
parts[] object (Part)

Parts ordonnés qui constituent un seul message. Les parties peuvent avoir différents types MIME.

role string

Facultatif. Producteur du contenu. Doit être 'utilisateur' ou 'modèle'.

Utile pour les conversations multitours. Sinon, vous pouvez laisser ce champ vide ou non défini.

Représentation JSON
{
  "parts": [
    {
      object (Part)
    }
  ],
  "role": string
}

Partie

Type de données contenant du contenu multimédia faisant partie d'un message Content en plusieurs parties.

Un Part se compose de données associées à un type de données. Un Part ne peut contenir qu'un seul des types acceptés dans Part.data.

Un Part doit avoir un type MIME IANA fixe qui identifie le type et le sous-type du contenu multimédia si le champ inlineData est rempli d'octets bruts.

Champs

Champ d'union data.

data ne peut être qu'un des éléments suivants :

text string

Texte intégré.

inlineData object (Blob)

Octets de contenu multimédia intégrés.

functionCall object (FunctionCall)

Une valeur FunctionCall prédite renvoyée par le modèle et qui contient une chaîne représentant le FunctionDeclaration.name avec les arguments et leurs valeurs.

functionResponse object (FunctionResponse)

Le résultat d'une FunctionCall contenant une chaîne représentant la FunctionDeclaration.name et un objet JSON structuré contenant tout résultat de la fonction est utilisé comme contexte pour le modèle.

fileData object (FileData)

Données basées sur l'URI.

executableCode object (ExecutableCode)

Code généré par le modèle et destiné à être exécuté.

codeExecutionResult object (CodeExecutionResult)

Résultat de l'exécution de ExecutableCode.

Représentation JSON
{

  // Union field data can be only one of the following:
  "text": string,
  "inlineData": {
    object (Blob)
  },
  "functionCall": {
    object (FunctionCall)
  },
  "functionResponse": {
    object (FunctionResponse)
  },
  "fileData": {
    object (FileData)
  },
  "executableCode": {
    object (ExecutableCode)
  },
  "codeExecutionResult": {
    object (CodeExecutionResult)
  }
  // End of list of possible types for union field data.
}

Blob

Octets de contenu multimédia bruts.

Le texte ne doit pas être envoyé sous forme d'octets bruts. Utilisez le champ "text".

Champs
mimeType string

Type MIME standard IANA des données sources. Exemples: - image/png - image/jpeg Si un type MIME non compatible est fourni, une erreur est renvoyée. Pour obtenir la liste complète des types de fichiers compatibles, consultez Formats de fichiers acceptés.

data string (bytes format)

Octets bruts pour les formats multimédias.

Chaîne encodée en base64.

Représentation JSON
{
  "mimeType": string,
  "data": string
}

FunctionCall

Une FunctionCall prédite renvoyée par le modèle et qui contient une chaîne représentant FunctionDeclaration.name avec les arguments et leurs valeurs.

Champs
name string

Obligatoire. Nom de la fonction à appeler. Il doit être composé de a-z, A-Z, 0-9, ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 63.

args object (Struct format)

Facultatif. Paramètres et valeurs de la fonction au format d'objet JSON.

Représentation JSON
{
  "name": string,
  "args": {
    object
  }
}

FunctionResponse

Le résultat d'une FunctionCall contenant une chaîne représentant la FunctionDeclaration.name et un objet JSON structuré contenant tout résultat de la fonction est utilisé comme contexte pour le modèle. Doit contenir le résultat d'une opération FunctionCall effectuée en fonction de la prédiction du modèle.

Champs
name string

Obligatoire. Nom de la fonction à appeler. Il doit être composé de a-z, A-Z, 0-9, ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 63.

response object (Struct format)

Obligatoire. Réponse de la fonction au format d'objet JSON.

Représentation JSON
{
  "name": string,
  "response": {
    object
  }
}

FileData

Données basées sur l'URI.

Champs
mimeType string

Facultatif. Type MIME standard IANA des données sources.

fileUri string

Obligatoire. URI.

Représentation JSON
{
  "mimeType": string,
  "fileUri": string
}

ExecutableCode

Code généré par le modèle qui doit être exécuté et résultat renvoyé au modèle.

Ne sont générés que lorsque vous utilisez l'outil CodeExecution, dans lequel le code est exécuté automatiquement et qu'un CodeExecutionResult correspondant est également généré.

Champs
language enum (Language)

Obligatoire. Langage de programmation de l'code.

code string

Obligatoire. Code à exécuter.

Représentation JSON
{
  "language": enum (Language),
  "code": string
}

Langue

Langages de programmation compatibles pour le code généré.

Enums
LANGUAGE_UNSPECIFIED Langue non spécifiée. Cette valeur ne doit pas être utilisée.
PYTHON Python 3.10 ou version ultérieure, avec numpy et simpy disponibles

CodeExecutionResult

Résultat de l'exécution de ExecutableCode.

Générée uniquement lors de l'utilisation de CodeExecution et suit toujours une part contenant la ExecutableCode.

Champs
outcome enum (Outcome)

Obligatoire. Résultat de l'exécution du code.

output string

Facultatif. Contient stdout lorsque l'exécution du code est réussie, stderr ou une autre description dans le cas contraire.

Représentation JSON
{
  "outcome": enum (Outcome),
  "output": string
}

Résultat

Énumération des résultats possibles de l'exécution du code.

Enums
OUTCOME_UNSPECIFIED État non spécifié. Cette valeur ne doit pas être utilisée.
OUTCOME_OK L'exécution du code a bien été effectuée.
OUTCOME_FAILED L'exécution du code s'est terminée, mais avec un échec. stderr doit contenir le motif.
OUTCOME_DEADLINE_EXCEEDED L'exécution du code a duré trop longtemps et a été annulée. Une sortie partielle peut être présente ou non.

Outil

Informations sur l'outil que le modèle peut utiliser pour générer une réponse.

Un Tool est un morceau de code qui permet au système d'interagir avec des systèmes externes pour effectuer une action ou un ensemble d'actions en dehors du champ d'application et des connaissances du modèle.

Champs
functionDeclarations[] object (FunctionDeclaration)

Facultatif. Liste des FunctionDeclarations disponibles pour le modèle et pouvant être utilisés pour l'appel de fonction.

Le modèle ou le système n'exécute pas la fonction. À la place, la fonction définie peut être renvoyée en tant que FunctionCall avec des arguments côté client pour l'exécution. Le modèle peut décider d'appeler un sous-ensemble de ces fonctions en remplissant FunctionCall dans la réponse. Le prochain tour de conversation peut contenir un FunctionResponse avec le contexte de génération de la "fonction" Content.role pour le prochain tour du modèle.

googleSearchRetrieval object (GoogleSearchRetrieval)

Facultatif. Outil de récupération alimenté par la recherche Google.

codeExecution object (CodeExecution)

Facultatif. Permet au modèle d'exécuter du code lors de la génération.

Représentation JSON
{
  "functionDeclarations": [
    {
      object (FunctionDeclaration)
    }
  ],
  "googleSearchRetrieval": {
    object (GoogleSearchRetrieval)
  },
  "codeExecution": {
    object (CodeExecution)
  }
}

FunctionDeclaration

Représentation structurée d'une déclaration de fonction telle que définie par la spécification OpenAPI 3.03. Cette déclaration comprend le nom et les paramètres de la fonction. Cette déclaration de fonction est une représentation d'un bloc de code qui peut être utilisé comme Tool par le modèle et exécuté par le client.

Champs
name string

Obligatoire. Nom de la fonction. Il doit être composé de a-z, A-Z, 0-9, ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 63.

description string

Obligatoire. Brève description de la fonction.

parameters object (Schema)

Facultatif. Décrit les paramètres de cette fonction. Reflète la clé de chaîne d'objet de paramètre Open API 3.03: nom du paramètre. Les noms de paramètres sont sensibles à la casse. Valeur du schéma: schéma définissant le type utilisé pour le paramètre.

Représentation JSON
{
  "name": string,
  "description": string,
  "parameters": {
    object (Schema)
  }
}

Schéma

L'objet Schema permet de définir les types de données d'entrée et de sortie. Ces types peuvent être des objets, mais aussi des primitifs et des tableaux. Représente un sous-ensemble spécifique d'un objet Schéma OpenAPI 3.0.

Champs
type enum (Type)

Obligatoire. Type de données.

format string

Facultatif. Format des données. Cette option n'est utilisée que pour les types de données primitifs. Formats compatibles: pour le type NUMBER: float, double pour le type INTEGER: int32, int64 pour le type STRING: enum

description string

Facultatif. Brève description du paramètre. Il peut contenir des exemples d'utilisation. La description du paramètre peut être mise en forme en Markdown.

nullable boolean

Facultatif. Indique si la valeur peut être nulle.

enum[] string

Facultatif. Valeurs possibles de l'élément de type Type.STRING avec le format enum. Par exemple, il est possible de définir une direction d'énumération comme suit : {type:STRING, format:enum, enum:["EAST", NORTH", "SOUTH", "WEST"]}

maxItems string (int64 format)

Facultatif. Nombre maximal d'éléments pour Type.ARRAY.

minItems string (int64 format)

Facultatif. Nombre minimal d'éléments pour Type.ARRAY.

properties map (key: string, value: object (Schema))

Facultatif. Propriétés de Type.OBJECT.

Objet contenant une liste de paires "key": value. Exemple : { "name": "wrench", "mass": "1.3kg", "count": "3" }.

required[] string

Facultatif. Propriétés obligatoires de Type.OBJECT.

items object (Schema)

Facultatif. Schéma des éléments de Type.ARRAY.

Représentation JSON
{
  "type": enum (Type),
  "format": string,
  "description": string,
  "nullable": boolean,
  "enum": [
    string
  ],
  "maxItems": string,
  "minItems": string,
  "properties": {
    string: {
      object (Schema)
    },
    ...
  },
  "required": [
    string
  ],
  "items": {
    object (Schema)
  }
}

Type

Type contient la liste des types de données OpenAPI tels que définis par https://spec.openapis.org/oas/v3.0.3#data-types.

Enums
TYPE_UNSPECIFIED Non spécifié, ne doit pas être utilisé.
STRING Type de chaîne.
NUMBER Type de numéro.
INTEGER Type entier.
BOOLEAN Type booléen.
ARRAY Type de tableau.
OBJECT Type d'objet.

GoogleSearchRetrieval

Outil permettant de récupérer des données Web publiques à des fins d'ancrage, fourni par Google.

Champs
dynamicRetrievalConfig object (DynamicRetrievalConfig)

Spécifie la configuration de récupération dynamique pour la source donnée.

Représentation JSON
{
  "dynamicRetrievalConfig": {
    object (DynamicRetrievalConfig)
  }
}

DynamicRetrievalConfig

Décrit les options permettant de personnaliser la récupération dynamique.

Champs
mode enum (Mode)

Mode du prédicteur à utiliser pour la récupération dynamique.

dynamicThreshold number

Seuil à utiliser pour la récupération dynamique. Si elle n'est pas définie, une valeur par défaut du système est utilisée.

Représentation JSON
{
  "mode": enum (Mode),
  "dynamicThreshold": number
}

Mode

Mode du prédicteur à utiliser pour la récupération dynamique.

Enums
MODE_UNSPECIFIED Toujours déclencher la récupération.
MODE_DYNAMIC Exécutez la récupération uniquement lorsque le système décide qu'elle est nécessaire.

CodeExecution

Ce type ne comporte aucun champ.

Outil qui exécute le code généré par le modèle et renvoie automatiquement le résultat au modèle.

Consultez également ExecutableCode et CodeExecutionResult, qui ne sont générés que lorsque vous utilisez cet outil.

ToolConfig

Configuration de l'outil contenant des paramètres permettant de spécifier l'utilisation de Tool dans la requête.

Champs
functionCallingConfig object (FunctionCallingConfig)

Facultatif. Config. d'appel de fonction.

Représentation JSON
{
  "functionCallingConfig": {
    object (FunctionCallingConfig)
  }
}

FunctionCallingConfig

Configuration permettant de spécifier le comportement d'appel de fonction.

Champs
mode enum (Mode)

Facultatif. Spécifie le mode d'exécution de l'appel de fonction. Si aucune valeur n'est spécifiée, la valeur par défaut sera définie sur AUTO.

allowedFunctionNames[] string

Facultatif. Ensemble de noms de fonctions qui, lorsqu'il est fourni, limite les fonctions que le modèle appellera.

Cette valeur ne doit être définie que lorsque le mode est "ANY". Les noms de fonctions doivent correspondre à [FunctionDeclaration.name]. Lorsque le mode est défini sur "ANY" (TOUT), le modèle prédit un appel de fonction à partir de l'ensemble de noms de fonctions fournis.

Représentation JSON
{
  "mode": enum (Mode),
  "allowedFunctionNames": [
    string
  ]
}

Mode

Définit le comportement d'exécution pour l'appel de fonction en définissant le mode d'exécution.

Enums
MODE_UNSPECIFIED Mode d'appel de fonction non spécifié. Cette valeur ne doit pas être utilisée.
AUTO Comportement par défaut du modèle. Le modèle décide de prédire un appel de fonction ou une réponse en langage naturel.
ANY Le modèle est contraint de toujours prédire un seul appel de fonction. Si "allowedFunctionNames" est défini, l'appel de fonction prédit sera limité à l'un des "allowedFunctionNames", sinon l'appel de fonction prédit sera l'un des "functionDeclarations" fournis.
NONE Le modèle ne prédit aucun appel de fonction. Le comportement du modèle est identique à celui obtenu lorsque vous ne transmettez aucune déclaration de fonction.

UsageMetadata

Métadonnées sur l'utilisation du contenu mis en cache.

Champs
totalTokenCount integer

Nombre total de jetons consommés par le contenu mis en cache.

Représentation JSON
{
  "totalTokenCount": integer
}