Caching

Buforowanie kontekstu umożliwia zapisywanie i używanie wcześniej obliczonych tokenów wejściowych, których chcesz używać wielokrotnie, np. podczas zadawania różnych pytań dotyczących tego samego pliku multimedialnego. Może to prowadzić do oszczędności na kosztach i szybkości, w zależności od sposobu korzystania. Szczegółowe informacje znajdziesz w przewodniku Kontekstowe zapisywanie w pamięci podręcznej.

Metoda: CacheContents.create

Tworzy zasób CachedContent.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/cachedContents

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Pola
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Stały. Zawartość do pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Stały. Lista właściwości Tools, których model może używać do wygenerowania następnej odpowiedzi

Pole unii expiration. Określa, kiedy zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z" i "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wygenerowana przez użytkownika rozpoznawalna wyświetlana nazwa treści z pamięci podręcznej. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa Model do użycia dla treści z pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekst.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest wspólna dla wszystkich narzędzi.

Przykładowe żądanie

Podstawowe

Python

import google.generativeai as genai

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(cache)

model = genai.GenerativeModel.from_cached_content(cache)
response = model.generate_content("Please summarize this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});

console.log(cacheResult);

const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(cacheResult);
const result = await model.generateContent(
  "Please summarize this transcript.",
);
console.log(result.response.text());

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
prompt := "Please summarize this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

wget https://storage.googleapis.com/generativeai-downloads/data/a11.txt
echo '{
  "model": "models/gemini-1.5-flash-001",
  "contents":[
    {
      "parts":[
        {
          "inline_data": {
            "mime_type":"text/plain",
            "data": "'$(base64 $B64FLAGS a11.txt)'"
          }
        }
      ],
    "role": "user"
    }
  ],
  "systemInstruction": {
    "parts": [
      {
        "text": "You are an expert at analyzing transcripts."
      }
    ]
  },
  "ttl": "300s"
}' > request.json

curl -X POST "https://generativelanguage.googleapis.com/v1beta/cachedContents?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d @request.json \
 > cache.json

CACHE_NAME=$(cat cache.json | grep '"name":' | cut -d '"' -f 4 | head -n 1)

curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-001:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
      "contents": [
        {
          "parts":[{
            "text": "Please summarize this transcript"
          }],
          "role": "user"
        },
      ],
      "cachedContent": "'$CACHE_NAME'"
    }'

Nazwa nadawcy

Python

import google.generativeai as genai

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache_name = cache.name  # Save the name for later

# Later
cache = genai.caching.CachedContent.get(cache_name)
apollo_model = genai.GenerativeModel.from_cached_content(cache)
response = apollo_model.generate_content("Find a lighthearted moment from this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheName = cacheResult.name; // Save the name for later.

// Later
const getCacheResult = await cacheManager.get(cacheName);
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(getCacheResult);
model.generateContent("Please summarize this transcript.");

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Z czatu

Python

import google.generativeai as genai

model_name = "gemini-1.5-flash-001"
system_instruction = "You are an expert analyzing transcripts."

model = genai.GenerativeModel(model_name=model_name, system_instruction=system_instruction)
chat = model.start_chat()
document = genai.upload_file(path=media / "a11.txt")
response = chat.send_message(["Hi, could you summarize this transcript?", document])
print("\n\nmodel:  ", response.text)
response = chat.send_message(
    ["Okay, could you tell me more about the trans-lunar injection"]
)
print("\n\nmodel:  ", response.text)

# To cache the conversation so far, pass the chat history as the list of "contents".
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction=system_instruction,
    contents=chat.history,
)
model = genai.GenerativeModel.from_cached_content(cached_content=cache)

# Continue the chat where you left off.
chat = model.start_chat()
response = chat.send_message(
    "I didn't understand that last part, could you explain it in simpler language?"
)
print("\n\nmodel:  ", response.text)

Node.js

// Make sure to include these imports:
// import { GoogleGenerativeAI } from "@google/generative-ai";
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash-001" });
const chat = model.startChat();

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

let result = await chat.sendMessage([
  "Hi, could you summarize this transcript?",
  {
    fileData: {
      fileUri: uploadResult.file.uri,
      mimeType: uploadResult.file.mimeType,
    },
  },
]);
console.log(`\n\nmodel: ${result.response.text()}`);
result = await chat.sendMessage(
  "Okay, could you tell me more about the trans-lunar injection",
);
console.log(`\n\nmodel: ${result.response.text()}`);

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: await chat.getHistory(),
});

const newModel = genAI.getGenerativeModelFromCachedContent(cacheResult);

const newChat = newModel.startChat();
result = await newChat.sendMessage(
  "I didn't understand that last part, could you explain it in simpler language?",
);
console.log(`\n\nmodel: ${result.response.text()}`);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

modelName := "gemini-1.5-flash-001"
model := client.GenerativeModel(modelName)
model.SystemInstruction = genai.NewUserContent(genai.Text("You are an expert analyzing transcripts."))

cs := model.StartChat()
resp, err := cs.SendMessage(ctx, genai.Text("Hi, could you summarize this transcript?"), fd)
if err != nil {
	log.Fatal(err)
}

resp, err = cs.SendMessage(ctx, genai.Text("Okay, could you tell me more about the trans-lunar injection"))
if err != nil {
	log.Fatal(err)
}

// To cache the conversation so far, pass the chat history as the list of
// contents.

argcc := &genai.CachedContent{
	Model:             modelName,
	SystemInstruction: model.SystemInstruction,
	Contents:          cs.History,
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
cs = modelWithCache.StartChat()
resp, err = cs.SendMessage(ctx, genai.Text("I didn't understand that last part, could you please explain it in simpler language?"))
if err != nil {
	log.Fatal(err)
}
printResponse(resp)

Treść odpowiedzi

Jeśli operacja się uda, treść odpowiedzi będzie zawierała nowo utworzoną instancję CachedContent.

Metoda: CacheContents.list

Wyświetla zawartość CachedContent.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/cachedContents

Parametry zapytania

pageSize integer

Opcjonalnie: Maksymalna liczba treści z pamięci podręcznej do zwrócenia. Usługa może zwrócić mniej niż ta wartość. Jeśli nie podasz wartości, zwrócona zostanie domyślna liczba elementów (poniżej maksymalnej). Maksymalna wartość to 1000. Wartości powyżej 1000 zostaną zmienione na 1000.

pageToken string

Opcjonalnie: Token strony otrzymany z poprzedniego wywołania funkcji cachedContents.list. Podaj ten parametr, aby pobrać kolejną stronę.

Podczas podziału na strony wszystkie inne parametry przekazane do funkcji cachedContents.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Treść odpowiedzi

Odpowiedź z listą CachedContents.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
cachedContents[] object (CachedContent)

Lista treści z pamięci podręcznej.

nextPageToken string

token, który może być wysyłany jako pageToken w celu pobrania następnej strony. Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "cachedContents": [
    {
      object (CachedContent)
    }
  ],
  "nextPageToken": string
}

Metoda: CacheContents.get

Odczytuje zasób CachedContent.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odwołującego się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id} Ma postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

import google.generativeai as genai

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(genai.caching.CachedContent.get(name=cache.name))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheGetResult = await cacheManager.get(cacheResult.name);
console.log(cacheGetResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

curl "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: cachedContents.patch

Aktualizuje zasób CachedContent (można zaktualizować tylko datę wygaśnięcia).

Punkt końcowy

patch https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

PATCH https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

Parametry ścieżki

cachedContent.name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id} Ma postać cachedContents/{cachedcontent}.

Parametry zapytania

updateMask string (FieldMask format)

Lista pól do zaktualizowania.

Jest to lista pełnych nazw pól rozdzielona przecinkami. Przykład: "user.displayName,photo".

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Pola
Pole unii expiration. Określa, kiedy ten zasób wygaśnie. expiration może mieć tylko jedną z tych wartości:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z" i "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

Przykładowe żądanie

Python

import google.generativeai as genai

import datetime

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)

# You can update the ttl
cache.update(ttl=datetime.timedelta(hours=2))
print(f"After update:\n {cache}")

# Or you can update the expire_time
cache.update(expire_time=datetime.datetime.now() + datetime.timedelta(minutes=15))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
console.log("initial cache data:", cacheResult);
const cacheUpdateResult = await cacheManager.update(cacheResult.name, {
  cachedContent: {
    // 2 hours
    ttlSeconds: 60 * 60 * 2,
  },
});
console.log("updated cache data:", cacheUpdateResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X PATCH "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d '{"ttl": "600s"}'

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: CacheContents.delete

Usuwa zasób CachedContent.

Punkt końcowy

delete https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odnosi się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id}. Przyjmuje postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

import google.generativeai as genai

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache.delete()

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
await cacheManager.delete(cacheResult.name);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X DELETE "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi jest pusta.

Zasób REST: CacheContents

Zasób: CachedContent

Treści, które zostały wstępnie przetworzone i mogą być użyte w kolejnych żądaniach do GenerativeService.

Treści w pamięci podręcznej mogą być używane tylko z modelem, dla którego zostały utworzone.

Pola
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Stały. Treści do umieszczenia w pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Lista właściwości Tools, których model może używać do wygenerowania następnej odpowiedzi

createTime string (Timestamp format)

Tylko dane wyjściowe. Czas utworzenia wpisu w pamięci podręcznej.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

updateTime string (Timestamp format)

Tylko dane wyjściowe. Czas ostatniej aktualizacji wpisu w pamięci podręcznej (UTC).

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

usageMetadata object (UsageMetadata)

Tylko dane wyjściowe. Metadane dotyczące wykorzystania treści z pamięci podręcznej.

Pole unii expiration. Określa, kiedy ten zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z" i "2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wygenerowana przez użytkownika rozpoznawalna wyświetlana nazwa treści z pamięci podręcznej. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa Model do użycia dla treści z pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekst.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest współdzielona dla wszystkich narzędzi.

Zapis JSON
{
  "contents": [
    {
      object (Content)
    }
  ],
  "tools": [
    {
      object (Tool)
    }
  ],
  "createTime": string,
  "updateTime": string,
  "usageMetadata": {
    object (UsageMetadata)
  },

  // Union field expiration can be only one of the following:
  "expireTime": string,
  "ttl": string
  // End of list of possible types for union field expiration.
  "name": string,
  "displayName": string,
  "model": string,
  "systemInstruction": {
    object (Content)
  },
  "toolConfig": {
    object (ToolConfig)
  }
}

Treść

Podstawowy typ danych uporządkowanych zawierający wieloczęściową treść wiadomości.

Pole Content zawiera pole role określające producenta elementu Content oraz pole parts zawierające dane wieloczęściowe, które zawierają treść kolejki wiadomości.

Pola
parts[] object (Part)

uporządkowane Parts, które stanowią jedną wiadomość. Części mogą mieć różne typy MIME.

role string

Opcjonalnie: Producent treści. Musi to być „user” (użytkownik) lub „model” (model).

Ta opcja jest przydatna w przypadku rozmów wieloetapowych. W przeciwnym razie pole może pozostać puste lub nieskonfigurowane.

Zapis JSON
{
  "parts": [
    {
      object (Part)
    }
  ],
  "role": string
}

Część

Typ danych zawierający multimedia, które są częścią wiadomości wieloczęściowej Content.

Element Part składa się z danych, które mają powiązany typ danych. Element Part może zawierać tylko jeden z akceptowanych typów w elementach Part.data.

Jeśli pole inlineData jest wypełnione surowymi bajtami, Part musi mieć stały typ MIME IANA identyfikujący typ i podtyp multimediów.

Pola

Pole unii data.

data może mieć tylko jedną z tych wartości:

text string

Tekst wbudowany.

inlineData object (Blob)

Wbudowane bajty multimediów.

functionCall object (FunctionCall)

Przewidywana wartość FunctionCall zwracana przez model, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name z argumentami i ich wartościami.

functionResponse object (FunctionResponse)

Wynikowe dane wyjściowe funkcji FunctionCall, które zawierają ciąg znaków reprezentujący obiekt FunctionDeclaration.name, i uporządkowany obiekt JSON zawierający dowolne dane wyjściowe funkcji, są używane jako kontekst dla modelu.

fileData object (FileData)

Dane oparte na identyfikatorze URI.

executableCode object (ExecutableCode)

Kod wygenerowany przez model, który ma zostać wykonany.

codeExecutionResult object (CodeExecutionResult)

Wynik wykonania funkcji ExecutableCode.

Zapis JSON
{

  // Union field data can be only one of the following:
  "text": string,
  "inlineData": {
    object (Blob)
  },
  "functionCall": {
    object (FunctionCall)
  },
  "functionResponse": {
    object (FunctionResponse)
  },
  "fileData": {
    object (FileData)
  },
  "executableCode": {
    object (ExecutableCode)
  },
  "codeExecutionResult": {
    object (CodeExecutionResult)
  }
  // End of list of possible types for union field data.
}

Blob

Nieprzetworzone bajty multimediów.

Tekst nie powinien być wysyłany jako surowe bajty. Użyj pola „text”.

Pola
mimeType string

Standardowy typ MIME danych źródłowych wg IANA. Przykłady: – obraz/png – obraz/jpeg. Jeśli zostanie podany nieobsługiwany typ MIME, zostanie zwrócony błąd. Pełną listę obsługiwanych formatów znajdziesz w artykule o obsługiwanych formatach plików.

data string (bytes format)

Nieprzetworzone bajty formatów multimediów.

Ciąg znaków zakodowany w formacie Base64.

Zapis JSON
{
  "mimeType": string,
  "data": string
}

FunctionCall

Prognozowana wartość FunctionCall zwracana przez model, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name z argumentami i ich wartościami.

Pola
name string

Wymagane. Nazwa funkcji do wywołania. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

args object (Struct format)

Opcjonalnie: Parametry i wartości funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "args": {
    object
  }
}

FunctionResponse

Wynik funkcji FunctionCall, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name, oraz uporządkowany obiekt JSON zawierający dowolny wynik funkcji, jest używany jako kontekst modelu. Powinien zawierać wynik FunctionCall wykonany na podstawie prognozy modelu.

Pola
name string

Wymagane. Nazwa funkcji do wywołania. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

response object (Struct format)

Wymagane. Odpowiedź funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "response": {
    object
  }
}

FileData

Dane oparte na identyfikatorze URI.

Pola
mimeType string

Opcjonalnie: Typ MIME danych źródłowych zgodny ze standardem IANA.

fileUri string

Wymagane. Identyfikator URI.

Zapis JSON
{
  "mimeType": string,
  "fileUri": string
}

ExecutableCode

Kod wygenerowany przez model, który ma zostać wykonany, oraz wynik zwrócony do modelu.

Wygenerowany tylko przy użyciu narzędzia CodeExecution, w którym kod zostanie automatycznie wykonany oraz wygenerowany zostanie odpowiedni element CodeExecutionResult.

Pola
language enum (Language)

Wymagane. Język programowania code.

code string

Wymagane. Kod do wykonania.

Zapis JSON
{
  "language": enum (Language),
  "code": string
}

Język

Obsługiwane języki programowania dla wygenerowanego kodu.

Wartości w polu enum
LANGUAGE_UNSPECIFIED Nieokreślony język. Nie należy używać tej wartości.
PYTHON Python > 3.10 z dostępem do biblioteki Numpy i simpy.

CodeExecutionResult

Wynik wykonania funkcji ExecutableCode.

Jest generowany tylko wtedy, gdy używasz CodeExecution, i zawsze występuje po part zawierającym ExecutableCode.

Pola
outcome enum (Outcome)

Wymagane. Wynik działania kodu.

output string

Opcjonalnie: Zawiera dane wyjściowe stdout, gdy wykonanie kodu przebiega prawidłowo, a w przeciwnym razie – dane stderr lub inny opis.

Zapis JSON
{
  "outcome": enum (Outcome),
  "output": string
}

Wynik

Wyliczenie możliwych wyników wykonania kodu.

Wartości w polu enum
OUTCOME_UNSPECIFIED Stan nieokreślony. Nie należy używać tej wartości.
OUTCOME_OK Wykonywanie kodu zostało zakończone.
OUTCOME_FAILED Wykonywanie kodu zostało zakończone, ale z błędem. Wartość stderr powinna zawierać powód.
OUTCOME_DEADLINE_EXCEEDED Wykonywanie kodu trwało zbyt długo i zostało anulowane. Może być obecny częściowy wynik.

Narzędzie

Szczegóły narzędzia, których model może używać do generowania odpowiedzi.

Tool to fragment kodu, który umożliwia systemowi interakcję z systemami zewnętrznymi w celu wykonania działania lub zestawu działań wykraczających poza wiedzę i zakres modelu.

Pola
functionDeclarations[] object (FunctionDeclaration)

Opcjonalnie: Lista FunctionDeclarations dostępnych dla modelu, które można wykorzystać do wywołania funkcji.

Model lub system nie wykonuje funkcji. Zamiast tego zdefiniowana funkcja może zostać zwrócona jako FunctionCall z argumentami do wykonania po stronie klienta. Model może wywołać podzbiór tych funkcji, wypełniając FunctionCall w odpowiedzi. Następna kolejność w rozmowie może zawierać FunctionResponse z kontekstem generowania „funkcji” Content.role na potrzeby kolejnej kolejności w modelu.

googleSearchRetrieval object (GoogleSearchRetrieval)

Opcjonalnie: Narzędzie do pobierania, które korzysta z wyszukiwarki Google.

codeExecution object (CodeExecution)

Opcjonalnie: Umożliwia modelowi wykonywanie kodu w ramach generowania.

Zapis JSON
{
  "functionDeclarations": [
    {
      object (FunctionDeclaration)
    }
  ],
  "googleSearchRetrieval": {
    object (GoogleSearchRetrieval)
  },
  "codeExecution": {
    object (CodeExecution)
  }
}

FunctionDeclaration

Strukturalna reprezentacja deklaracji funkcji zgodnie ze specyfikacją OpenAPI 3.03. Ta deklaracja zawiera nazwę funkcji i jej parametry. Ta deklaracja funkcji jest reprezentacją bloku kodu, który może być używany przez model jako Tool i uruchamiany przez klienta.

Pola
name string

Wymagane. Nazwa funkcji. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

description string

Wymagane. Krótki opis funkcji.

parameters object (Schema)

Opcjonalnie: Opisuje parametry tej funkcji. Odzwierciedla klucz ciągu znaków obiektu parametru Open API 3.03: nazwę parametru. W nazwach parametrów wielkość liter ma znaczenie. Wartość schematu: schemat określający typ parametru.

Zapis JSON
{
  "name": string,
  "description": string,
  "parameters": {
    object (Schema)
  }
}

Schemat

Obiekt Schema umożliwia definiowanie typów danych wejściowych i wyjściowych. Mogą to być obiekty, ale też obiekty podstawowe i tablice. Reprezentuje wybrany podzbiór obiektu schematu OpenAPI 3.0.

Pola
type enum (Type)

Wymagane. Typ danych.

format string

Opcjonalnie: Format danych. Jest to używane tylko w przypadku prymitywnych typów danych. Obsługiwane formaty: dla typu LICZBA: float, double dla typu CAŁKA: int32, int64 dla typu TEKST: enum

description string

Opcjonalnie: Krótki opis parametru. Może zawierać przykłady użycia. Opis parametru może być sformatowany w formacie Markdown.

nullable boolean

Opcjonalnie: Wskazuje, czy wartość może być pusta.

enum[] string

Opcjonalnie: Możliwe wartości elementu typu STRING w formacie wyliczeniowym. Możemy na przykład zdefiniować kierunek jako : {type:STRING, format:enum, enum:["EAST", NORTH", "SOUTH", "WEST"]}

maxItems string (int64 format)

Opcjonalnie: Maksymalna liczba elementów typu Type.ARRAY.

minItems string (int64 format)

Opcjonalnie: Minimalna liczba elementów w przypadku typu Type.ARRAY.

properties map (key: string, value: object (Schema))

Opcjonalnie: Właściwości typu Type.OBJECT.

Obiekt zawierający listę par "key": value. Przykład: { "name": "wrench", "mass": "1.3kg", "count": "3" }.

required[] string

Opcjonalnie: Wymagane właściwości obiektu Type.OBJECT.

items object (Schema)

Opcjonalnie: Schemat elementów typu Type.ARRAY.

Zapis JSON
{
  "type": enum (Type),
  "format": string,
  "description": string,
  "nullable": boolean,
  "enum": [
    string
  ],
  "maxItems": string,
  "minItems": string,
  "properties": {
    string: {
      object (Schema)
    },
    ...
  },
  "required": [
    string
  ],
  "items": {
    object (Schema)
  }
}

Typ

Typ zawiera listę typów danych OpenAPI zgodnie ze specyfikacją https://spec.openapis.org/oas/v3.0.3#data-types.

Wartości w polu enum
TYPE_UNSPECIFIED Nie określono i nie należy go używać.
STRING Typ ciągu znaków.
NUMBER Typ numeru.
INTEGER Typ liczba całkowita.
BOOLEAN Typ logiczny.
ARRAY Typ tablicy.
OBJECT Typ obiektu.

GoogleSearchRetrieval

Narzędzie do pobierania publicznych danych internetowych na potrzeby informacji podstawowej, opracowane przez Google.

Pola
dynamicRetrievalConfig object (DynamicRetrievalConfig)

Określa konfigurację dynamicznego pobierania dla danego źródła.

Zapis JSON
{
  "dynamicRetrievalConfig": {
    object (DynamicRetrievalConfig)
  }
}

DynamicRetrievalConfig

Opis opcji dostosowywania dynamicznego pobierania.

Pola
mode enum (Mode)

Tryb predyktora używany w przypadku wyszukiwania dynamicznego.

dynamicThreshold number

Próg do użycia w przypadku dynamicznego pobierania. Jeśli nie zostanie ustawiony, system użyje wartości domyślnej.

Zapis JSON
{
  "mode": enum (Mode),
  "dynamicThreshold": number
}

Tryb

Tryb predyktora używany do dynamicznego wyszukiwania.

Wartości w polu enum
MODE_UNSPECIFIED Zawsze uruchamiaj odzyskiwanie.
MODE_DYNAMIC Przeprowadzać odzyskiwanie tylko wtedy, gdy system uzna to za konieczne.

CodeExecution

Ten typ nie ma pól.

Narzędzie, które wykonuje kod wygenerowany przez model, a następnie automatycznie zwraca wynik do modelu.

Zobacz też pliki ExecutableCodeCodeExecutionResult, które są generowane tylko podczas korzystania z tego narzędzia.

ToolConfig

Konfiguracja narzędzia zawierająca parametry określające użycie Tool w żądaniu.

Pola
functionCallingConfig object (FunctionCallingConfig)

Opcjonalnie: Konfiguracja wywoływania funkcji.

Zapis JSON
{
  "functionCallingConfig": {
    object (FunctionCallingConfig)
  }
}

FunctionCallingConfig

Konfiguracja służąca do określania zachowania wywoływania funkcji.

Pola
mode enum (Mode)

Opcjonalnie: Określa tryb, w jakim ma być wykonywane wywołanie funkcji. Jeśli nie określono inaczej, domyślną wartością będzie AUTO.

allowedFunctionNames[] string

Opcjonalnie: Zestaw nazw funkcji, który po podaniu ogranicza funkcje wywoływane przez model.

To ustawienie powinno być ustawione tylko wtedy, gdy wartość Mode to ANY. Nazwy funkcji powinny być zgodne z [FunctionDeclaration.name]. Gdy tryb jest ustawiony na dowolny, model prognozuje wywołanie funkcji z podanego zbioru nazw funkcji.

Zapis JSON
{
  "mode": enum (Mode),
  "allowedFunctionNames": [
    string
  ]
}

Tryb

Określa zachowanie podczas wywoływania funkcji, definiując tryb wykonywania.

Wartości w polu enum
MODE_UNSPECIFIED Nieokreślony tryb wywoływania funkcji. Nie należy używać tej wartości.
AUTO Domyślne zachowanie modelu: model decyduje, czy przewidzieć wywołanie funkcji, czy odpowiedź w języku naturalnym.
ANY Model jest ograniczony do prognozowania tylko wywołania funkcji. Jeśli ustawisz parametry „allowedFunctionNames”, przewidywane wywołanie funkcji zostanie ograniczone do dowolnego z parametrów „allowedFunctionNames”. W przeciwnym razie przewidywane wywołanie funkcji będzie dowolnym z podanych „functionDeclarations”.
NONE Model nie będzie przewidywać żadnego wywołania funkcji. Model działa tak samo jak wtedy, gdy nie przekazujesz żadnych deklaracji funkcji.

UsageMetadata

metadane dotyczące wykorzystania treści z pamięci podręcznej;

Pola
totalTokenCount integer

Łączna liczba tokenów zużywanych przez treści w pamięci podręcznej.

Zapis JSON
{
  "totalTokenCount": integer
}