Caching

Buforowanie kontekstu umożliwia zapisywanie i ponowne wykorzystywanie wstępnie wyliczonych tokenów wejściowych, których chcesz używać wielokrotnie, na przykład podczas zadawania różnych pytań na temat tego samego pliku multimedialnego. Może to prowadzić do oszczędności na kosztach i szybkości, w zależności od sposobu korzystania. Szczegółowe informacje znajdziesz w przewodniku dotyczącym buforowania kontekstu.

Metoda: cachedContents.create

Tworzy zasób CachedContent.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/cachedContents

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Fields
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Zawartość do pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Stały. lista Tools, których model może użyć do wygenerowania następnej odpowiedzi;

Pole sumy expiration. Określa, kiedy ten zasób wygaśnie. expiration może mieć tylko jedną z tych wartości:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w RFC3339 UTC „Zulu” z rozdzielczością nanosekundową i maksymalnie 9 cyframi po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko dane wejściowe.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odnosząca się do treści zapisanej w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wyświetlana nazwa treści z pamięci podręcznej, która została utworzona przez użytkownika. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa elementu (Model), który ma być używany w przypadku treści w pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Stały. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekstowe.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest wspólna dla wszystkich narzędzi.

Przykładowe żądanie

Podstawowe

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(cache)

model = genai.GenerativeModel.from_cached_content(cache)
response = model.generate_content("Please summarize this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});

console.log(cacheResult);

const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(cacheResult);
const result = await model.generateContent(
  "Please summarize this transcript.",
);
console.log(result.response.text());

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
prompt := "Please summarize this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

wget https://storage.googleapis.com/generativeai-downloads/data/a11.txt
echo '{
  "model": "models/gemini-1.5-flash-001",
  "contents":[
    {
      "parts":[
        {
          "inline_data": {
            "mime_type":"text/plain",
            "data": "'$(base64 $B64FLAGS a11.txt)'"
          }
        }
      ],
    "role": "user"
    }
  ],
  "systemInstruction": {
    "parts": [
      {
        "text": "You are an expert at analyzing transcripts."
      }
    ]
  },
  "ttl": "300s"
}' > request.json

curl -X POST "https://generativelanguage.googleapis.com/v1beta/cachedContents?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d @request.json \
 > cache.json

CACHE_NAME=$(cat cache.json | grep '"name":' | cut -d '"' -f 4 | head -n 1)

curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-001:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
      "contents": [
        {
          "parts":[{
            "text": "Please summarize this transcript"
          }],
          "role": "user"
        },
      ],
      "cachedContent": "'$CACHE_NAME'"
    }'

Nazwa nadawcy

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache_name = cache.name  # Save the name for later

# Later
cache = genai.caching.CachedContent.get(cache_name)
apollo_model = genai.GenerativeModel.from_cached_content(cache)
response = apollo_model.generate_content("Find a lighthearted moment from this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheName = cacheResult.name; // Save the name for later.

// Later
const getCacheResult = await cacheManager.get(cacheName);
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(getCacheResult);
model.generateContent("Please summarize this transcript.");

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Z czatu

Python

model_name = "gemini-1.5-flash-001"
system_instruction = "You are an expert analyzing transcripts."

model = genai.GenerativeModel(model_name=model_name, system_instruction=system_instruction)
chat = model.start_chat()
document = genai.upload_file(path=media / "a11.txt")
response = chat.send_message(["Hi, could you summarize this transcript?", document])
print("\n\nmodel:  ", response.text)
response = chat.send_message(
    ["Okay, could you tell me more about the trans-lunar injection"]
)
print("\n\nmodel:  ", response.text)

# To cache the conversation so far, pass the chat history as the list of "contents".
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction=system_instruction,
    contents=chat.history,
)
model = genai.GenerativeModel.from_cached_content(cached_content=cache)

# Continue the chat where you left off.
chat = model.start_chat()
response = chat.send_message(
    "I didn't understand that last part, could you explain it in simpler language?"
)
print("\n\nmodel:  ", response.text)

Node.js

// Make sure to include these imports:
// import { GoogleGenerativeAI } from "@google/generative-ai";
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash-001" });
const chat = model.startChat();

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

let result = await chat.sendMessage([
  "Hi, could you summarize this transcript?",
  {
    fileData: {
      fileUri: uploadResult.file.uri,
      mimeType: uploadResult.file.mimeType,
    },
  },
]);
console.log(`\n\nmodel: ${result.response.text()}`);
result = await chat.sendMessage(
  "Okay, could you tell me more about the trans-lunar injection",
);
console.log(`\n\nmodel: ${result.response.text()}`);

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: await chat.getHistory(),
});

const newModel = genAI.getGenerativeModelFromCachedContent(cacheResult);

const newChat = newModel.startChat();
result = await newChat.sendMessage(
  "I didn't understand that last part, could you explain it in simpler language?",
);
console.log(`\n\nmodel: ${result.response.text()}`);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

modelName := "gemini-1.5-flash-001"
model := client.GenerativeModel(modelName)
model.SystemInstruction = genai.NewUserContent(genai.Text("You are an expert analyzing transcripts."))

cs := model.StartChat()
resp, err := cs.SendMessage(ctx, genai.Text("Hi, could you summarize this transcript?"), fd)
if err != nil {
	log.Fatal(err)
}

resp, err = cs.SendMessage(ctx, genai.Text("Okay, could you tell me more about the trans-lunar injection"))
if err != nil {
	log.Fatal(err)
}

// To cache the conversation so far, pass the chat history as the list of
// contents.

argcc := &genai.CachedContent{
	Model:             modelName,
	SystemInstruction: model.SystemInstruction,
	Contents:          cs.History,
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
cs = modelWithCache.StartChat()
resp, err = cs.SendMessage(ctx, genai.Text("I didn't understand that last part, could you please explain it in simpler language?"))
if err != nil {
	log.Fatal(err)
}
printResponse(resp)

Treść odpowiedzi

Jeśli operacja się uda, treść odpowiedzi będzie zawierała nowo utworzoną instancję CachedContent.

Metoda: CacheContents.list

Wyświetla elementy CachedContents.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/cachedContents

Parametry zapytania

pageSize integer

Opcjonalnie: Maksymalna liczba zwracanych elementów z pamięci podręcznej. Usługa może zwrócić mniej niż ta wartość. Jeśli nie określono inaczej, zostanie zwrócona domyślna (poniżej maksymalnej) liczba produktów. Maksymalna wartość to 1000; wartości powyżej 1000 zostaną skonwertowane na 1000.

pageToken string

Opcjonalnie: Token strony otrzymany z poprzedniego wywołania funkcji cachedContents.list. Podaj ten parametr, aby pobrać kolejną stronę.

Podczas podziału na strony wszystkie inne parametry przekazane do funkcji cachedContents.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Treść odpowiedzi

Odpowiedź z listą CachedContents.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
cachedContents[] object (CachedContent)

Lista treści z pamięci podręcznej.

nextPageToken string

Token, który może zostać wysłany jako pageToken w celu pobrania następnej strony. Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "cachedContents": [
    {
      object (CachedContent)
    }
  ],
  "nextPageToken": string
}

Metoda: cachedContents.get

Odczytuje zasób CachedContent.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odwołującego się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id} Ma postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(genai.caching.CachedContent.get(name=cache.name))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheGetResult = await cacheManager.get(cacheResult.name);
console.log(cacheGetResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

curl "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: CacheContents.patch

Aktualizuje zasób CachedContent (można zaktualizować tylko datę wygaśnięcia).

Punkt końcowy

patch https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

PATCH https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

Parametry ścieżki

cachedContent.name string

Opcjonalnie: Identyfikator. Nazwa zasobu odnosząca się do treści zapisanej w pamięci podręcznej. Format: cachedContents/{id} Przyjmuje postać cachedContents/{cachedcontent}.

Parametry zapytania

updateMask string (FieldMask format)

Lista pól do zaktualizowania.

Jest to rozdzielona przecinkami lista pełnych i jednoznacznych nazw pól. Przykład: "user.displayName,photo".

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Pola
Pole unii expiration. Określa, kiedy zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w RFC3339 UTC „Zulu” z rozdzielczością nanosekundową i maksymalnie 9 cyframi po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko dane wejściowe.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

Przykładowe żądanie

Python

import datetime

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)

# You can update the ttl
cache.update(ttl=datetime.timedelta(hours=2))
print(f"After update:\n {cache}")

# Or you can update the expire_time
cache.update(expire_time=datetime.datetime.now() + datetime.timedelta(minutes=15))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
console.log("initial cache data:", cacheResult);
const cacheUpdateResult = await cacheManager.update(cacheResult.name, {
  cachedContent: {
    // 2 hours
    ttlSeconds: 60 * 60 * 2,
  },
});
console.log("updated cache data:", cacheUpdateResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X PATCH "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d '{"ttl": "600s"}'

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: CacheContents.delete

Usuwa zasób CachedContent.

Punkt końcowy

delete https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odnosi się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id}. Przyjmuje postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache.delete()

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
await cacheManager.delete(cacheResult.name);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X DELETE "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

Jeśli operacja się uda, treść odpowiedzi będzie pusta.

Zasób REST: cachedContents

Zasób: CachedContent

Treści, które zostały wstępnie przetworzone i można ich użyć w kolejnych żądaniach kierowanych do GenerativeService.

Treści w pamięci podręcznej można używać tylko z modelem, dla którego zostały utworzone.

Pola
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Stały. Treści do umieszczenia w pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Lista właściwości Tools, których model może używać do wygenerowania następnej odpowiedzi

createTime string (Timestamp format)

Tylko dane wyjściowe. Czas utworzenia wpisu w pamięci podręcznej.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

updateTime string (Timestamp format)

Tylko dane wyjściowe. Czas ostatniej aktualizacji wpisu pamięci podręcznej według czasu UTC.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z" i "2014-10-02T15:01:23.045123456Z".

usageMetadata object (UsageMetadata)

Tylko dane wyjściowe. Metadane dotyczące wykorzystania treści z pamięci podręcznej.

Pole sumy expiration. Określa, kiedy ten zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w RFC3339 UTC „Zulu” z rozdzielczością nanosekundową i maksymalnie 9 cyframi po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko dane wejściowe.

Czas w sekundach z maksymalnie 9 miejscami po przecinku, zakończony literą „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odnosząca się do treści zapisanej w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wyświetlana nazwa treści z pamięci podręcznej, która została utworzona przez użytkownika. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa elementu (Model), który ma być używany w przypadku treści w pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Stały. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekstowe.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest wspólna dla wszystkich narzędzi.

Zapis JSON
{
  "contents": [
    {
      object (Content)
    }
  ],
  "tools": [
    {
      object (Tool)
    }
  ],
  "createTime": string,
  "updateTime": string,
  "usageMetadata": {
    object (UsageMetadata)
  },

  // Union field expiration can be only one of the following:
  "expireTime": string,
  "ttl": string
  // End of list of possible types for union field expiration.
  "name": string,
  "displayName": string,
  "model": string,
  "systemInstruction": {
    object (Content)
  },
  "toolConfig": {
    object (ToolConfig)
  }
}

Treść

Podstawowy typ danych uporządkowanych zawierający wieloczęściową treść wiadomości.

Pole Content zawiera pole role określające producenta elementu Content oraz pole parts zawierające dane wieloczęściowe, które zawierają treść kolejki wiadomości.

.
Pola
parts[] object (Part)

uporządkowane Parts, które stanowią jedną wiadomość. Części mogą mieć różne typy MIME.

role string

Opcjonalnie: Producent treści. Musi to być „user” (użytkownik) lub „model” (model).

Przydatne w przypadku rozmów wieloetapowych. W innych przypadkach można pozostawić to pole puste lub niewypełnione.

Zapis JSON
{
  "parts": [
    {
      object (Part)
    }
  ],
  "role": string
}

Część

Typ danych zawierający multimedia, które są częścią wieloczęściowej wiadomości Content.

Element Part składa się z danych, które mają powiązany typ danych. Element Part może zawierać tylko jeden z akceptowanych typów w elementach Part.data.

Jeśli pole inlineData jest wypełnione nieprzetworzonymi bajtami, Part musi mieć stały typ MIME IANA identyfikujący typ i podtyp mediów.

.
Pola

Pole sumy data.

data może być tylko jednym z tych elementów:

text string

Tekst wbudowany.

inlineData object (Blob)

Wbudowane bajty multimediów.

functionCall object (FunctionCall)

Prognozowana wartość FunctionCall zwrócona przez model, która zawiera ciąg reprezentujący element FunctionDeclaration.name z argumentami i ich wartościami.

functionResponse object (FunctionResponse)

Wynik funkcji FunctionCall, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name, oraz ustrukturyzowany obiekt JSON zawierający dowolny wynik funkcji, jest używany jako kontekst modelu.

fileData object (FileData)

Dane oparte na identyfikatorze URI.

executableCode object (ExecutableCode)

Kod wygenerowany przez model, który ma zostać wykonany.

codeExecutionResult object (CodeExecutionResult)

Wynik wykonania funkcji ExecutableCode.

Zapis JSON
{

  // Union field data can be only one of the following:
  "text": string,
  "inlineData": {
    object (Blob)
  },
  "functionCall": {
    object (FunctionCall)
  },
  "functionResponse": {
    object (FunctionResponse)
  },
  "fileData": {
    object (FileData)
  },
  "executableCode": {
    object (ExecutableCode)
  },
  "codeExecutionResult": {
    object (CodeExecutionResult)
  }
  // End of list of possible types for union field data.
}

Blob

Nieprzetworzone bajty multimediów.

Tekst nie powinien być wysyłany jako nieprzetworzone bajty – używaj parametru „text” .

.
Pola
mimeType string

Typ MIME danych źródłowych zgodny ze standardem IANA. Przykłady: – image/png – image/jpeg Jeśli podany zostanie nieobsługiwany typ MIME, zwrócony zostanie błąd. Pełną listę obsługiwanych typów znajdziesz w sekcji Obsługiwane formaty plików.

data string (bytes format)

Nieprzetworzone bajty w przypadku formatów multimediów.

Ciąg znaków zakodowany w formacie Base64.

Zapis JSON
{
  "mimeType": string,
  "data": string
}

FunctionCall

Prognozowana wartość FunctionCall zwrócona przez model, która zawiera ciąg reprezentujący element FunctionDeclaration.name z argumentami i ich wartościami.

.
Pola
name string

Wymagane. Nazwa funkcji do wywołania. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

args object (Struct format)

Opcjonalnie: Parametry i wartości funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "args": {
    object
  }
}

FunctionResponse

Wynikowe dane wyjściowe z funkcji FunctionCall, które zawierają ciąg znaków reprezentujący obiekt FunctionDeclaration.name, oraz uporządkowany obiekt JSON zawierający dowolne dane wyjściowe funkcji, są używane jako kontekst dla modelu. Powinien zawierać wynik FunctionCall wykonany na podstawie prognozy modelu.

Pola
name string

Wymagane. Nazwa funkcji do wywołania. Nazwa musi mieć format a–z, A–Z lub 0–9, albo zawierać podkreślenia i myślniki o maksymalnej długości 63 znaki.

response object (Struct format)

Wymagane. Odpowiedź funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "response": {
    object
  }
}

FileData

Dane oparte na identyfikatorze URI.

Pola
mimeType string

Opcjonalnie: Typ MIME danych źródłowych zgodny ze standardem IANA.

fileUri string

Wymagane. Identyfikator URI.

Zapis JSON
{
  "mimeType": string,
  "fileUri": string
}

ExecutableCode

Kod wygenerowany przez model, który ma zostać wykonany, oraz wynik zwrócony do modelu.

Wygenerowany tylko przy użyciu narzędzia CodeExecution, w którym kod zostanie automatycznie wykonany oraz wygenerowany zostanie odpowiedni element CodeExecutionResult.

.
Pola
language enum (Language)

Wymagane. Język programowania urządzenia code.

code string

Wymagane. Kod do wykonania.

Zapis JSON
{
  "language": enum (Language),
  "code": string
}

Język

Obsługiwane języki programowania dla wygenerowanego kodu.

Wartości w polu enum
LANGUAGE_UNSPECIFIED Nieokreślony język. Nie należy używać tej wartości.
PYTHON Python > 3.10 z dostępem do biblioteki Numpy i simpy.

CodeExecutionResult

Wynik wykonywania zadania ExecutableCode.

Jest generowany tylko wtedy, gdy używasz CodeExecution, i zawsze występuje po part zawierającym ExecutableCode.

.
Pola
outcome enum (Outcome)

Wymagane. Wynik wykonania kodu.

output string

Opcjonalnie: Zawiera dane wyjściowe stdout, gdy wykonanie kodu przebiega prawidłowo, a w przeciwnym razie – dane stderr lub inny opis.

Zapis JSON
{
  "outcome": enum (Outcome),
  "output": string
}

Wynik

Lista możliwych wyników wykonania kodu.

Wartości w polu enum
OUTCOME_UNSPECIFIED Stan nieokreślony. Nie należy używać tej wartości.
OUTCOME_OK Wykonanie kodu zostało ukończone.
OUTCOME_FAILED Wykonywanie kodu zostało zakończone, ale z błędem. Wartość stderr powinna zawierać powód.
OUTCOME_DEADLINE_EXCEEDED Wykonywanie kodu trwało zbyt długo i zostało anulowane. Może się zdarzyć, że pojawią się częściowe dane wyjściowe.

Narzędzie

Szczegóły narzędzia, których model może używać do generowania odpowiedzi.

Tool to fragment kodu, który umożliwia systemowi wchodzenie w interakcję z zewnętrznymi systemami w celu wykonania działania lub zestawu działań poza zakresem wiedzy i zakresu modelu.

Pola
functionDeclarations[] object (FunctionDeclaration)

Opcjonalnie: Lista FunctionDeclarations dostępnych dla modelu, które można wykorzystać do wywołania funkcji.

Model lub system nie wykonuje funkcji. Zamiast tego zdefiniowana funkcja może zostać zwrócona jako FunctionCall z argumentami do wykonania po stronie klienta. Model może zdecydować o wywołaniu podzbioru tych funkcji, wypełniając w odpowiedzi atrybut FunctionCall. Następny skręt wątku może zawierać obiekt FunctionResponse z „funkcją” Content.role w kontekście następnej generacji modelu.

codeExecution object (CodeExecution)

Opcjonalnie: Umożliwia modelowi wykonywanie kodu w ramach generowania.

Zapis JSON
{
  "functionDeclarations": [
    {
      object (FunctionDeclaration)
    }
  ],
  "codeExecution": {
    object (CodeExecution)
  }
}

FunctionDeclaration

Strukturalna reprezentacja deklaracji funkcji zgodnie ze specyfikacją OpenAPI 3.03. Ta deklaracja zawiera nazwę funkcji i jej parametry. Ta deklaracja funkcji jest reprezentacją bloku kodu, który może być używany przez model jako Tool i uruchamiany przez klienta.

Pola
name string

Wymagane. Nazwa funkcji. Nazwa musi mieć format a–z, A–Z lub 0–9, albo zawierać podkreślenia i myślniki o maksymalnej długości 63 znaki.

description string

Wymagane. Krótki opis funkcji.

parameters object (Schema)

Opcjonalnie: Opisuje parametry tej funkcji. Odzwierciedla obiekt parametru Open API 3.03. Klucz ciągu: nazwa parametru. W nazwach parametrów rozróżniana jest wielkość liter. Wartość schematu: schemat określający typ parametru.

Zapis JSON
{
  "name": string,
  "description": string,
  "parameters": {
    object (Schema)
  }
}

Schemat

Obiekt Schema umożliwia definiowanie typów danych wejściowych i wyjściowych. Mogą to być obiekty, ale też typy prymitywne i tablice. Reprezentuje wybrany podzbiór obiektu schematu OpenAPI 3.0.

Pola
type enum (Type)

Wymagane. Typ danych.

format string

Opcjonalnie: Format danych. Jest używana tylko w przypadku podstawowych typów danych. Obsługiwane formaty: dla typu NUMBER: liczba zmiennoprzecinkowa, podwójne (dla typu LICZBA CAŁKOWITEJ): int32, int64 (dla typu STRING): enum

description string

Opcjonalnie: Krótki opis parametru. Może zawierać przykłady użycia. Opis parametru może być sformatowany w formacie Markdown.

nullable boolean

Opcjonalnie: Wskazuje, czy wartość może być pusta.

enum[] string

Opcjonalnie: Możliwe wartości elementu Type.STRING w formacie wyliczenia. Możemy na przykład zdefiniować kierunek jako: {type:STRING, format:enum, enum:["EAST", NORTH", "SOUTH", "WEST"]}

maxItems string (int64 format)

Opcjonalnie: Maksymalna liczba elementów typu Type.ARRAY.

minItems string (int64 format)

Opcjonalnie: Minimalna liczba elementów w przypadku typu Type.ARRAY.

properties map (key: string, value: object (Schema))

Opcjonalnie: Właściwości typu Type.OBJECT.

Obiekt zawierający listę par "key": value. Przykład: { "name": "wrench", "mass": "1.3kg", "count": "3" }.

required[] string

Opcjonalnie: Wymagania dotyczące właściwości Type.OBJECT.

items object (Schema)

Opcjonalnie: Schemat elementów pliku Type.ARRAY.

Zapis JSON
{
  "type": enum (Type),
  "format": string,
  "description": string,
  "nullable": boolean,
  "enum": [
    string
  ],
  "maxItems": string,
  "minItems": string,
  "properties": {
    string: {
      object (Schema)
    },
    ...
  },
  "required": [
    string
  ],
  "items": {
    object (Schema)
  }
}

Typ

Typ zawiera listę typów danych OpenAPI zgodnie ze specyfikacją https://spec.openapis.org/oas/v3.0.3#data-types.

Wartości w polu enum
TYPE_UNSPECIFIED Nieokreślony, nie należy go używać.
STRING Typ ciągu znaków.
NUMBER Typ numeru.
INTEGER Typ liczby całkowitej.
BOOLEAN Typ wartości logicznej.
ARRAY Typ tablicy.
OBJECT Typ obiektu.

CodeExecution

Ten typ nie zawiera pól.

Narzędzie, które wykonuje kod wygenerowany przez model, a następnie automatycznie zwraca wynik do modelu.

Zobacz też ExecutableCode i CodeExecutionResult, które są generowane tylko podczas korzystania z tego narzędzia.

ToolConfig

Konfiguracja narzędzia zawierająca parametry określające użycie Tool w żądaniu.

Pola
functionCallingConfig object (FunctionCallingConfig)

Opcjonalnie: Funkcja wywołująca konfigurację.

Zapis JSON
{
  "functionCallingConfig": {
    object (FunctionCallingConfig)
  }
}

FunctionCallingConfig

Konfiguracja do określania zachowania wywoływania funkcji.

.
Pola
mode enum (Mode)

Opcjonalnie: Określa tryb, w jakim ma być wykonywane wywoływanie funkcji. Jeśli nie podasz tej wartości, zostanie ustawiona wartość domyślna AUTO.

allowedFunctionNames[] string

Opcjonalnie: Zbiór nazw funkcji, które po podaniu ograniczają funkcje wywoływane przez model.

To ustawienie powinno być ustawione tylko wtedy, gdy wartość Mode to ANY. Nazwy funkcji powinny być zgodne z [FunctionDeclaration.name]. Gdy tryb jest ustawiony na dowolny, model prognozuje wywołanie funkcji z podanego zbioru nazw funkcji.

Zapis JSON
{
  "mode": enum (Mode),
  "allowedFunctionNames": [
    string
  ]
}

Tryb

Definiuje sposób wykonania wywoływania funkcji przez zdefiniowanie trybu wykonania.

Wartości w polu enum
MODE_UNSPECIFIED Nieokreślony tryb wywoływania funkcji. Nie należy używać tej wartości.
AUTO Domyślny model działania decyduje o prognozowaniu wywołania funkcji lub odpowiedzi w języku naturalnym.
ANY Model jest ograniczony do prognozowania tylko wywołania funkcji. Jeśli „allowedFunctionNames” prognozowane wywołanie funkcji zostanie ograniczone do dowolnej z tych funkcji: „allowedFunctionNames”. W przeciwnym razie prognozowanym wywołaniem funkcji będzie dowolna z podanych „deklaracji funkcji”.
NONE Model nie będzie przewidywać żadnego wywołania funkcji. Zachowanie modelu jest takie samo jak w przypadku braku deklaracji funkcji.

UsageMetadata

Metadane dotyczące wykorzystania treści z pamięci podręcznej.

.
Pola
totalTokenCount integer

Łączna liczba tokenów wykorzystanych przez pamięć podręczną.

Zapis JSON
{
  "totalTokenCount": integer
}