Caching

Buforowanie kontekstu umożliwia zapisywanie i używanie wcześniej obliczonych tokenów wejściowych, których chcesz używać wielokrotnie, np. podczas zadawania różnych pytań dotyczących tego samego pliku multimedialnego. W zależności od wykorzystania może to przynieść oszczędności i szybkość działania. Szczegółowe informacje znajdziesz w przewodniku dotyczącym buforowania kontekstu.

Metoda: cachedContents.create

Tworzy zasób CachedContent.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/cachedContents

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Pola
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Treści do umieszczenia w pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. lista Tools, których model może użyć do wygenerowania następnej odpowiedzi;

Pole unii expiration. Określa, kiedy zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas trwania w sekundach składający się z maksymalnie dziewięciu cyfr po przecinku i kończący się „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wygenerowana przez użytkownika rozpoznawalna wyświetlana nazwa treści z pamięci podręcznej. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa elementu (Model), który ma być używany w przypadku treści w pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekst.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest współdzielona dla wszystkich narzędzi.

Przykładowe żądanie

Podstawowe

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(cache)

model = genai.GenerativeModel.from_cached_content(cache)
response = model.generate_content("Please summarize this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});

console.log(cacheResult);

const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(cacheResult);
const result = await model.generateContent(
  "Please summarize this transcript.",
);
console.log(result.response.text());

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
prompt := "Please summarize this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

wget https://storage.googleapis.com/generativeai-downloads/data/a11.txt
echo '{
  "model": "models/gemini-1.5-flash-001",
  "contents":[
    {
      "parts":[
        {
          "inline_data": {
            "mime_type":"text/plain",
            "data": "'$(base64 $B64FLAGS a11.txt)'"
          }
        }
      ],
    "role": "user"
    }
  ],
  "systemInstruction": {
    "parts": [
      {
        "text": "You are an expert at analyzing transcripts."
      }
    ]
  },
  "ttl": "300s"
}' > request.json

curl -X POST "https://generativelanguage.googleapis.com/v1beta/cachedContents?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d @request.json \
 > cache.json

CACHE_NAME=$(cat cache.json | grep '"name":' | cut -d '"' -f 4 | head -n 1)

curl -X POST "https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash-001:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
      "contents": [
        {
          "parts":[{
            "text": "Please summarize this transcript"
          }],
          "role": "user"
        },
      ],
      "cachedContent": "'$CACHE_NAME'"
    }'

Nazwa nadawcy

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache_name = cache.name  # Save the name for later

# Later
cache = genai.caching.CachedContent.get(cache_name)
apollo_model = genai.GenerativeModel.from_cached_content(cache)
response = apollo_model.generate_content("Find a lighthearted moment from this transcript")
print(response.text)

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
// import { GoogleGenerativeAI } from "@google/generative-ai";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheName = cacheResult.name; // Save the name for later.

// Later
const getCacheResult = await cacheManager.get(cacheName);
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const model = genAI.getGenerativeModelFromCachedContent(getCacheResult);
model.generateContent("Please summarize this transcript.");

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Z czatu

Python

model_name = "gemini-1.5-flash-001"
system_instruction = "You are an expert analyzing transcripts."

model = genai.GenerativeModel(model_name=model_name, system_instruction=system_instruction)
chat = model.start_chat()
document = genai.upload_file(path=media / "a11.txt")
response = chat.send_message(["Hi, could you summarize this transcript?", document])
print("\n\nmodel:  ", response.text)
response = chat.send_message(
    ["Okay, could you tell me more about the trans-lunar injection"]
)
print("\n\nmodel:  ", response.text)

# To cache the conversation so far, pass the chat history as the list of "contents".
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction=system_instruction,
    contents=chat.history,
)
model = genai.GenerativeModel.from_cached_content(cached_content=cache)

# Continue the chat where you left off.
chat = model.start_chat()
response = chat.send_message(
    "I didn't understand that last part, could you explain it in simpler language?"
)
print("\n\nmodel:  ", response.text)

Node.js

// Make sure to include these imports:
// import { GoogleGenerativeAI } from "@google/generative-ai";
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const genAI = new GoogleGenerativeAI(process.env.API_KEY);
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash-001" });
const chat = model.startChat();

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

let result = await chat.sendMessage([
  "Hi, could you summarize this transcript?",
  {
    fileData: {
      fileUri: uploadResult.file.uri,
      mimeType: uploadResult.file.mimeType,
    },
  },
]);
console.log(`\n\nmodel: ${result.response.text()}`);
result = await chat.sendMessage(
  "Okay, could you tell me more about the trans-lunar injection",
);
console.log(`\n\nmodel: ${result.response.text()}`);

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: await chat.getHistory(),
});

const newModel = genAI.getGenerativeModelFromCachedContent(cacheResult);

const newChat = newModel.startChat();
result = await newChat.sendMessage(
  "I didn't understand that last part, could you explain it in simpler language?",
);
console.log(`\n\nmodel: ${result.response.text()}`);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

modelName := "gemini-1.5-flash-001"
model := client.GenerativeModel(modelName)
model.SystemInstruction = genai.NewUserContent(genai.Text("You are an expert analyzing transcripts."))

cs := model.StartChat()
resp, err := cs.SendMessage(ctx, genai.Text("Hi, could you summarize this transcript?"), fd)
if err != nil {
	log.Fatal(err)
}

resp, err = cs.SendMessage(ctx, genai.Text("Okay, could you tell me more about the trans-lunar injection"))
if err != nil {
	log.Fatal(err)
}

// To cache the conversation so far, pass the chat history as the list of
// contents.

argcc := &genai.CachedContent{
	Model:             modelName,
	SystemInstruction: model.SystemInstruction,
	Contents:          cs.History,
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

modelWithCache := client.GenerativeModelFromCachedContent(cc)
cs = modelWithCache.StartChat()
resp, err = cs.SendMessage(ctx, genai.Text("I didn't understand that last part, could you please explain it in simpler language?"))
if err != nil {
	log.Fatal(err)
}
printResponse(resp)

Treść odpowiedzi

Jeśli operacja się powiedzie, treść odpowiedzi będzie zawierała nowo utworzoną instancję CachedContent.

Metoda: CacheContents.list

Wyświetla elementy CachedContents.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/cachedContents

Parametry zapytania

pageSize integer

Opcjonalnie: Maksymalna liczba zwracanych elementów z pamięci podręcznej. Usługa może zwrócić mniej niż ta wartość. Jeśli nie podasz wartości, zwrócona zostanie domyślna liczba elementów (poniżej maksymalnej). Maksymalna wartość to 1000; wartości powyżej 1000 zostaną skonwertowane na 1000.

pageToken string

Opcjonalnie: Token strony otrzymany z poprzedniego wywołania funkcji cachedContents.list. Podaj go, aby pobrać kolejną stronę.

Podczas dzielenia na strony wszystkie pozostałe parametry podane w narzędziu cachedContents.list muszą być zgodne z wywołaniem, które dostarczyło token strony.

Treść żądania

Treść żądania musi być pusta.

Treść odpowiedzi

Odpowiedź z listą CachedContents.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
cachedContents[] object (CachedContent)

Lista treści z pamięci podręcznej.

nextPageToken string

token, który może być wysyłany jako pageToken w celu pobrania następnej strony. Jeśli pominiesz to pole, nie będzie kolejnych stron.

Zapis JSON
{
  "cachedContents": [
    {
      object (CachedContent)
    }
  ],
  "nextPageToken": string
}

Metoda: CacheContents.get

Odczytuje zasób CachedContent.

Punkt końcowy

get https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odwołującego się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id} Ma postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
print(genai.caching.CachedContent.get(name=cache.name))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
const cacheGetResult = await cacheManager.get(cacheResult.name);
console.log(cacheGetResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx, filepath.Join(testDataDir, "a11.txt"), nil)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)
fd := genai.FileData{URI: file.URI}

argcc := &genai.CachedContent{
	Model:             "gemini-1.5-flash-001",
	SystemInstruction: genai.NewUserContent(genai.Text("You are an expert analyzing transcripts.")),
	Contents:          []*genai.Content{genai.NewUserContent(fd)},
}
cc, err := client.CreateCachedContent(ctx, argcc)
if err != nil {
	log.Fatal(err)
}
defer client.DeleteCachedContent(ctx, cc.Name)

// Save the name for later
cacheName := cc.Name

// ... Later
cc2, err := client.GetCachedContent(ctx, cacheName)
if err != nil {
	log.Fatal(err)
}
modelWithCache := client.GenerativeModelFromCachedContent(cc2)
prompt := "Find a lighthearted moment from this transcript"
resp, err := modelWithCache.GenerateContent(ctx, genai.Text(prompt))
if err != nil {
	log.Fatal(err)
}

printResponse(resp)

Pudrowy róż

curl "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: cachedContents.patch

Aktualizuje zasób CachedContent (można zaktualizować tylko datę wygaśnięcia).

Punkt końcowy

patch https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

PATCH https://generativelanguage.googleapis.com/v1beta/{cachedContent.name=cachedContents/*}

Parametry ścieżki

cachedContent.name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id} Ma postać cachedContents/{cachedcontent}.

Parametry zapytania

updateMask string (FieldMask format)

Lista pól do zaktualizowania.

Jest to lista pełnych nazw pól rozdzielona przecinkami. Przykład: "user.displayName,photo".

Treść żądania

Treść żądania zawiera wystąpienie elementu CachedContent.

Pola
Pole unii expiration. Określa, kiedy ten zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas trwania w sekundach składający się z maksymalnie dziewięciu cyfr po przecinku i kończący się „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odnosząca się do treści zapisanej w pamięci podręcznej. Format: cachedContents/{id}

Przykładowe żądanie

Python

import datetime

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)

# You can update the ttl
cache.update(ttl=datetime.timedelta(hours=2))
print(f"After update:\n {cache}")

# Or you can update the expire_time
cache.update(expire_time=datetime.datetime.now() + datetime.timedelta(minutes=15))

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
console.log("initial cache data:", cacheResult);
const cacheUpdateResult = await cacheManager.update(cacheResult.name, {
  cachedContent: {
    // 2 hours
    ttlSeconds: 60 * 60 * 2,
  },
});
console.log("updated cache data:", cacheUpdateResult);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X PATCH "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -d '{"ttl": "600s"}'

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu CachedContent.

Metoda: CacheContents.delete

Usuwa zasób CachedContent.

Punkt końcowy

delete https://generativelanguage.googleapis.com/v1beta/{name=cachedContents/*}

Parametry ścieżki

name string

Wymagane. Nazwa zasobu odwołującego się do wpisu w pamięci podręcznej treści. Format: cachedContents/{id}. Ma postać cachedContents/{cachedcontent}.

Treść żądania

Treść żądania musi być pusta.

Przykładowe żądanie

Python

document = genai.upload_file(path=media / "a11.txt")
model_name = "gemini-1.5-flash-001"
cache = genai.caching.CachedContent.create(
    model=model_name,
    system_instruction="You are an expert analyzing transcripts.",
    contents=[document],
)
cache.delete()

Node.js

// Make sure to include these imports:
// import { GoogleAICacheManager, GoogleAIFileManager } from "@google/generative-ai/server";
const cacheManager = new GoogleAICacheManager(process.env.API_KEY);
const fileManager = new GoogleAIFileManager(process.env.API_KEY);

const uploadResult = await fileManager.uploadFile(`${mediaPath}/a11.txt`, {
  mimeType: "text/plain",
});

const cacheResult = await cacheManager.create({
  model: "models/gemini-1.5-flash-001",
  contents: [
    {
      role: "user",
      parts: [
        {
          fileData: {
            fileUri: uploadResult.file.uri,
            mimeType: uploadResult.file.mimeType,
          },
        },
      ],
    },
  ],
});
await cacheManager.delete(cacheResult.name);

Przeczytaj

file, err := client.UploadFileFromPath(ctx,
	filepath.Join(testDataDir, "a11.txt"),
	&genai.UploadFileOptions{MIMEType: "text/plain"})
if err != nil {
	log.Fatal(err)
}
defer client.DeleteFile(ctx, file.Name)

Pudrowy róż

curl -X DELETE "https://generativelanguage.googleapis.com/v1beta/$CACHE_NAME?key=$GOOGLE_API_KEY"

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi jest pusta.

Zasób REST: cachedContents

Zasób: CachedContent

Treści, które zostały wstępnie przetworzone i mogą być użyte w kolejnych żądaniach do GenerativeService.

Treści w pamięci podręcznej mogą być używane tylko z modelem, dla którego zostały utworzone.

Pola
contents[] object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Zawartość do pamięci podręcznej.

tools[] object (Tool)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. lista Tools, których model może użyć do wygenerowania kolejnej odpowiedzi;

createTime string (Timestamp format)

Tylko dane wyjściowe. Czas utworzenia wpisu w pamięci podręcznej.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

updateTime string (Timestamp format)

Tylko dane wyjściowe. Czas ostatniej aktualizacji wpisu w pamięci podręcznej (UTC).

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z" i "2014-10-02T15:01:23.045123456Z".

usageMetadata object (UsageMetadata)

Tylko dane wyjściowe. metadane dotyczące wykorzystania treści z pamięci podręcznej;

Pole unii expiration. Określa, kiedy ten zasób wygaśnie. expiration może być tylko jednym z tych elementów:
expireTime string (Timestamp format)

Sygnatura czasowa UTC wskazująca, kiedy zasób jest uznawany za nieaktualny. Wartość ta jest zawsze podawana na danych wyjściowych, niezależnie od tego, co zostało przesłane na dane wejściowe.

Sygnatura czasowa w formacie UTC „Zulu” zdefiniowanym w dokumencie RFC 3339, z dokładnością do nanosekund i maksymalnie 9 miejsc po przecinku. Przykłady: "2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z".

ttl string (Duration format)

Tylko dane wejściowe. Nowa wartość TTL dla tego zasobu, tylko do wprowadzania.

Czas trwania w sekundach składający się z maksymalnie dziewięciu cyfr po przecinku i kończący się „s”. Przykład: "3.5s".

name string

Opcjonalnie: Identyfikator. Nazwa zasobu odwołującego się do treści w pamięci podręcznej. Format: cachedContents/{id}

displayName string

Opcjonalnie: Niezmienna. Wygenerowana przez użytkownika rozpoznawalna wyświetlana nazwa treści z pamięci podręcznej. Maksymalnie 128 znaków Unicode.

model string

Wymagane. Niezmienna. Nazwa elementu (Model), który ma być używany w przypadku treści w pamięci podręcznej. Format: models/{model}

systemInstruction object (Content)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Instrukcja systemowa ustawiona przez dewelopera. Obecnie tylko tekst.

toolConfig object (ToolConfig)

Opcjonalnie: Tylko dane wejściowe. Niezmienna. Konfiguracja narzędzia. Ta konfiguracja jest wspólna dla wszystkich narzędzi.

Zapis JSON
{
  "contents": [
    {
      object (Content)
    }
  ],
  "tools": [
    {
      object (Tool)
    }
  ],
  "createTime": string,
  "updateTime": string,
  "usageMetadata": {
    object (UsageMetadata)
  },

  // Union field expiration can be only one of the following:
  "expireTime": string,
  "ttl": string
  // End of list of possible types for union field expiration.
  "name": string,
  "displayName": string,
  "model": string,
  "systemInstruction": {
    object (Content)
  },
  "toolConfig": {
    object (ToolConfig)
  }
}

Treść

Podstawowy typ danych uporządkowanych zawierający wieloczęściową treść wiadomości.

Content zawiera pole role, w którym wskazany jest producent Content, oraz pole parts zawierające dane wieloczęściowe z treścią wiadomości.

Pola
parts[] object (Part)

uporządkowane Parts, które stanowią jedną wiadomość. Części mogą mieć różne typy MIME.

role string

Opcjonalnie: Producent treści. Musi to być „user” (użytkownik) lub „model” (model).

Przydatne w przypadku rozmów wieloetapowych. W innych przypadkach można pozostawić to pole puste lub niewypełnione.

Zapis JSON
{
  "parts": [
    {
      object (Part)
    }
  ],
  "role": string
}

Część

Typ danych zawierający multimedia, które są częścią wiadomości wieloczęściowej Content.

Element Part składa się z danych, które mają powiązany typ danych. Element Part może zawierać tylko jeden z akceptowanych typów w elementach Part.data.

Jeśli pole inlineData jest wypełnione surowymi bajtami, Part musi mieć stały typ MIME IANA identyfikujący typ i podtyp multimediów.

Pola

Pole unii data.

data może mieć tylko jedną z tych wartości:

text string

Tekst wbudowany.

inlineData object (Blob)

Wbudowane bajty multimediów.

functionCall object (FunctionCall)

Prognozowana wartość FunctionCall zwracana przez model, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name z argumentami i ich wartościami.

functionResponse object (FunctionResponse)

Wynikowe dane wyjściowe funkcji FunctionCall, które zawierają ciąg znaków reprezentujący obiekt FunctionDeclaration.name, i uporządkowany obiekt JSON zawierający dowolne dane wyjściowe funkcji, są używane jako kontekst dla modelu.

fileData object (FileData)

Dane oparte na identyfikatorze URI.

executableCode object (ExecutableCode)

Kod wygenerowany przez model, który ma zostać wykonany.

codeExecutionResult object (CodeExecutionResult)

Wynik wykonywania zadania ExecutableCode.

Zapis JSON
{

  // Union field data can be only one of the following:
  "text": string,
  "inlineData": {
    object (Blob)
  },
  "functionCall": {
    object (FunctionCall)
  },
  "functionResponse": {
    object (FunctionResponse)
  },
  "fileData": {
    object (FileData)
  },
  "executableCode": {
    object (ExecutableCode)
  },
  "codeExecutionResult": {
    object (CodeExecutionResult)
  }
  // End of list of possible types for union field data.
}

Blob

Nieprzetworzone bajty multimediów.

Tekst nie powinien być wysyłany jako surowe bajty. Użyj pola „text”.

Pola
mimeType string

Typ MIME danych źródłowych zgodny ze standardem IANA. Przykłady: – image/png – image/jpeg Jeśli podany zostanie nieobsługiwany typ MIME, zwrócony zostanie błąd. Pełną listę obsługiwanych formatów znajdziesz w artykule o obsługiwanych formatach plików.

data string (bytes format)

Nieprzetworzone bajty formatów multimediów.

Ciąg znaków zakodowany w formacie Base64.

Zapis JSON
{
  "mimeType": string,
  "data": string
}

FunctionCall

Prognozowana wartość FunctionCall zwracana przez model, która zawiera ciąg znaków reprezentujący FunctionDeclaration.name z argumentami i ich wartościami.

Pola
name string

Wymagane. Nazwa funkcji do wywołania. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

args object (Struct format)

Opcjonalnie: Parametry i wartości funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "args": {
    object
  }
}

FunctionResponse

Wynikowe dane wyjściowe z funkcji FunctionCall, które zawierają ciąg znaków reprezentujący obiekt FunctionDeclaration.name, oraz uporządkowany obiekt JSON zawierający dowolne dane wyjściowe funkcji, są używane jako kontekst dla modelu. Powinien zawierać wynik FunctionCall wykonany na podstawie prognozy modelu.

Pola
name string

Wymagane. Nazwa funkcji do wywołania. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

response object (Struct format)

Wymagane. Odpowiedź funkcji w formacie obiektu JSON.

Zapis JSON
{
  "name": string,
  "response": {
    object
  }
}

FileData

Dane oparte na identyfikatorze URI.

Pola
mimeType string

Opcjonalnie: Typ MIME danych źródłowych zgodny ze standardem IANA.

fileUri string

Wymagane. Identyfikator URI.

Zapis JSON
{
  "mimeType": string,
  "fileUri": string
}

ExecutableCode

Kod wygenerowany przez model, który ma zostać wykonany, oraz wynik zwrócony do modelu.

Jest generowany tylko podczas korzystania z narzędzia CodeExecution, w którym kod jest automatycznie wykonywany, a także odpowiedni CodeExecutionResult.

Pola
language enum (Language)

Wymagane. Język programowania code.

code string

Wymagane. Kod do wykonania.

Zapis JSON
{
  "language": enum (Language),
  "code": string
}

Język

Obsługiwane języki programowania dla wygenerowanego kodu.

Wartości w polu enum
LANGUAGE_UNSPECIFIED Nieokreślony język. Nie należy używać tej wartości.
PYTHON Python > 3.10 z dostępem do biblioteki Numpy i simpy.

CodeExecutionResult

Wynik wykonania funkcji ExecutableCode.

Jest generowany tylko wtedy, gdy używasz CodeExecution, i zawsze występuje po part zawierającym ExecutableCode.

Pola
outcome enum (Outcome)

Wymagane. Wynik działania kodu.

output string

Opcjonalnie: Zawiera dane wyjściowe stdout, gdy wykonanie kodu przebiega prawidłowo, a w przeciwnym razie – dane stderr lub inny opis.

Zapis JSON
{
  "outcome": enum (Outcome),
  "output": string
}

Wynik

Wyliczenie możliwych wyników wykonania kodu.

Wartości w polu enum
OUTCOME_UNSPECIFIED Stan nieokreślony. Nie należy używać tej wartości.
OUTCOME_OK Wykonywanie kodu zostało zakończone.
OUTCOME_FAILED Wykonywanie kodu zostało zakończone, ale z błędem. Pole stderr powinno zawierać przyczynę.
OUTCOME_DEADLINE_EXCEEDED Wykonywanie kodu trwało zbyt długo i zostało anulowane. Może być obecny częściowy wynik.

Narzędzie

Szczegóły narzędzia, których model może używać do generowania odpowiedzi.

Tool to fragment kodu, który umożliwia systemowi wchodzenie w interakcję z zewnętrznymi systemami w celu wykonania działania lub zestawu działań poza zakresem wiedzy i zakresu modelu.

Pola
functionDeclarations[] object (FunctionDeclaration)

Opcjonalnie: Lista elementów FunctionDeclarations dostępnych dla modelu, które mogą być używane do wywoływania funkcji.

Model lub system nie wykonuje funkcji. Zamiast tego zdefiniowana funkcja może zostać zwrócona jako FunctionCall z argumentami do wykonania po stronie klienta. Model może wywołać podzbiór tych funkcji, wypełniając FunctionCall w odpowiedzi. Następna kolejność w rozmowie może zawierać FunctionResponse z kontekstem generowania „funkcji” Content.role na potrzeby kolejnej kolejności w modelu.

googleSearchRetrieval object (GoogleSearchRetrieval)

Opcjonalnie: Narzędzie do pobierania oparte na wyszukiwarce Google.

codeExecution object (CodeExecution)

Opcjonalnie: Umożliwia modelowi wykonywanie kodu w ramach generowania.

Zapis JSON
{
  "functionDeclarations": [
    {
      object (FunctionDeclaration)
    }
  ],
  "googleSearchRetrieval": {
    object (GoogleSearchRetrieval)
  },
  "codeExecution": {
    object (CodeExecution)
  }
}

FunctionDeclaration

Strukturalna reprezentacja deklaracji funkcji zgodnie ze specyfikacją OpenAPI 3.03. Deklaracja zawiera nazwę funkcji i parametry. Ta deklaracja funkcji to reprezentacja bloku kodu, który może być używany przez model jako Tool i wykonywany przez klienta.

Pola
name string

Wymagane. Nazwa funkcji. Musi zawierać małe litery (a–z), wielkie litery (A–Z), cyfry (0–9) lub podkreślenia i łączniki. Maksymalna długość to 63 znaki.

description string

Wymagane. Krótki opis funkcji.

parameters object (Schema)

Opcjonalnie: Opisuje parametry tej funkcji. Odzwierciedla obiekt parametru Open API 3.03. Klucz ciągu: nazwa parametru. W nazwach parametrów wielkość liter ma znaczenie. Wartość schematu: schemat definiujący typ używany dla parametru.

Zapis JSON
{
  "name": string,
  "description": string,
  "parameters": {
    object (Schema)
  }
}

Schemat

Obiekt Schema umożliwia definiowanie typów danych wejściowych i wyjściowych. Mogą to być obiekty, ale też obiekty podstawowe i tablice. Reprezentuje wybrany podzbiór obiektu schematu OpenAPI 3.0.

Pola
type enum (Type)

Wymagane. Typ danych.

format string

Opcjonalnie: Format danych. Jest to używane tylko w przypadku prymitywnych typów danych. Obsługiwane formaty: dla typu LICZBA: float, double dla typu CAŁKA: int32, int64 dla typu TEKST: enum

description string

Opcjonalnie: Krótki opis parametru. Może zawierać przykłady użycia. Opis parametru może być sformatowany w formacie Markdown.

nullable boolean

Opcjonalnie: Wskazuje, czy wartość może być pusta.

enum[] string

Opcjonalnie: Możliwe wartości elementu typu STRING w formacie wyliczeniowym. Możemy na przykład zdefiniować kierunek jako : {type:STRING, format:enum, enum:["EAST", NORTH", "SOUTH", "WEST"]}

maxItems string (int64 format)

Opcjonalnie: Maksymalna liczba elementów typu Type.ARRAY.

minItems string (int64 format)

Opcjonalnie: Minimalna liczba elementów w przypadku typu Type.ARRAY.

properties map (key: string, value: object (Schema))

Opcjonalnie: Właściwości obiektu Type.OBJECT.

Obiekt zawierający listę par "key": value. Przykład: { "name": "wrench", "mass": "1.3kg", "count": "3" }.

required[] string

Opcjonalnie: Wymagane właściwości obiektu Type.OBJECT.

items object (Schema)

Opcjonalnie: Schemat elementów typu Type.ARRAY.

Zapis JSON
{
  "type": enum (Type),
  "format": string,
  "description": string,
  "nullable": boolean,
  "enum": [
    string
  ],
  "maxItems": string,
  "minItems": string,
  "properties": {
    string: {
      object (Schema)
    },
    ...
  },
  "required": [
    string
  ],
  "items": {
    object (Schema)
  }
}

Typ

Typ zawiera listę typów danych OpenAPI zgodnie z definicją zawartą w https://spec.openapis.org/oas/v3.0.3#data-types.

Wartości w polu enum
TYPE_UNSPECIFIED Nieokreślony, nie należy go używać.
STRING Typ ciągu znaków.
NUMBER Typ numeru.
INTEGER Typ liczba całkowita.
BOOLEAN Typ logiczny.
ARRAY Typ tablicy.
OBJECT Typ obiektu.

GoogleSearchRetrieval

Narzędzie do pobierania publicznych danych internetowych na potrzeby informacji podstawowej, opracowane przez Google.

Pola
dynamicRetrievalConfig object (DynamicRetrievalConfig)

Określa konfigurację dynamicznego pobierania dla danego źródła.

Zapis JSON
{
  "dynamicRetrievalConfig": {
    object (DynamicRetrievalConfig)
  }
}

DynamicRetrievalConfig

Opis opcji dostosowywania wyszukiwania dynamicznego.

Pola
mode enum (Mode)

Tryb predyktora używany do dynamicznego wyszukiwania.

dynamicThreshold number

Próg do użycia w przypadku dynamicznego pobierania. Jeśli nie zostanie ustawiony, system użyje wartości domyślnej.

Zapis JSON
{
  "mode": enum (Mode),
  "dynamicThreshold": number
}

Tryb

Tryb predyktora używany do dynamicznego wyszukiwania.

Wartości w polu enum
MODE_UNSPECIFIED Zawsze aktywuj pobieranie.
MODE_DYNAMIC Przeprowadzać odzyskiwanie tylko wtedy, gdy system uzna to za konieczne.

CodeExecution

Ten typ nie zawiera pól.

Narzędzie, które wykonuje kod wygenerowany przez model, a następnie automatycznie zwraca wynik do modelu.

Zobacz też pliki ExecutableCodeCodeExecutionResult, które są generowane tylko podczas korzystania z tego narzędzia.

ToolConfig

Konfiguracja narzędzia zawierająca parametry określające użycie Tool w żądaniu.

Pola
functionCallingConfig object (FunctionCallingConfig)

Opcjonalnie: Konfiguracja wywoływania funkcji.

Zapis JSON
{
  "functionCallingConfig": {
    object (FunctionCallingConfig)
  }
}

FunctionCallingConfig

Konfiguracja służąca do określania zachowania wywoływania funkcji.

Pola
mode enum (Mode)

Opcjonalnie: Określa tryb, w którym mają być wykonywane wywołania funkcji. Jeśli nie podasz tej wartości, zostanie ustawiona wartość domyślna AUTO.

allowedFunctionNames[] string

Opcjonalnie: Zestaw nazw funkcji, który po podaniu ogranicza funkcje wywoływane przez model.

Tę wartość należy ustawiać tylko wtedy, gdy tryb ma wartość DOWOLNY. Nazwy funkcji powinny być takie same jak w parametrze [FunctionDeklaracja.nazwa]. Gdy tryb jest ustawiony na DOWOLNY, model przewiduje wywołanie funkcji na podstawie podanego zestawu nazw funkcji.

Zapis JSON
{
  "mode": enum (Mode),
  "allowedFunctionNames": [
    string
  ]
}

Tryb

Definiuje sposób wykonania wywoływania funkcji przez zdefiniowanie trybu wykonania.

Wartości w polu enum
MODE_UNSPECIFIED Nieokreślony tryb wywoływania funkcji. Nie należy używać tej wartości.
AUTO Domyślne zachowanie modelu: model decyduje, czy przewidzieć wywołanie funkcji, czy odpowiedź w języku naturalnym.
ANY Model jest ograniczony do przewidywania tylko wywołania funkcji. Jeśli ustawisz parametry „allowedFunctionNames”, przewidywane wywołanie funkcji zostanie ograniczone do dowolnego z parametrów „allowedFunctionNames”. W przeciwnym razie przewidywane wywołanie funkcji będzie dowolnym z podanych „functionDeclarations”.
NONE Model nie będzie przewidywać żadnego wywołania funkcji. Zachowanie modelu jest takie samo jak w przypadku braku deklaracji funkcji.

UsageMetadata

metadane dotyczące wykorzystania treści z pamięci podręcznej;

Pola
totalTokenCount integer

Łączna liczba tokenów zużywanych przez treści w pamięci podręcznej.

Zapis JSON
{
  "totalTokenCount": integer
}