上下文缓存

在典型的 AI 工作流程中,您可能会反复将相同的输入令牌传递给模型。Gemini API 提供两种不同的缓存机制:

  • 隐式缓存(在 Gemini 2.5 模型上自动启用,不保证节省费用)
  • 显式缓存(可在大多数型号上手动启用,保证节省费用)

如果您想保证节省费用,但需要增加一些开发者工作,那么显式缓存就很有用。

隐式缓存

默认情况下,所有 Gemini 2.5 模型都会启用隐式缓存。如果您的请求命中缓存,我们会自动为您节省费用。您无需执行任何操作即可启用此功能。自 2025 年 5 月 8 日起生效。对于 2.5 Flash,上下文缓存的输入 token 数下限为 1,024;对于 2.5 Pro,上下文缓存的输入 token 数下限为 4,096。

为了提高隐式缓存命中的几率:

  • 尝试将大型内容和常见内容放在提示的开头
  • 尝试在短时间内发送具有相似前缀的请求

您可以在回答对象的 usage_metadata 字段中查看缓存命中的 token 数量。

显式缓存

借助 Gemini API 的显式缓存功能,您可以将某些内容传递给模型一次,缓存输入 token,然后在后续请求中引用缓存的 token。在特定量级下,使用缓存的令牌比重复传入相同的语料库令牌成本更低。

缓存一组令牌时,您可以选择在令牌被自动删除之前,缓存的保留时长。此缓存时长称为存留时间 (TTL)。如果未设置,TTL 默认为 1 小时。缓存费用取决于输入令牌大小以及您希望令牌保留的时间。

本部分假定您已安装 Gemini SDK(或已安装 curl),并且已配置 API 密钥,如快速入门中所述。

使用缓存生成内容

以下示例展示了如何使用缓存的系统指令和视频文件生成内容。

视频

import os
import pathlib
import requests
import time

from google import genai
from google.genai import types

client = genai.Client()

# Download video file
url = 'https://storage.googleapis.com/generativeai-downloads/data/SherlockJr._10min.mp4'
path_to_video_file = pathlib.Path('SherlockJr._10min.mp4')
if not path_to_video_file.exists():
  with path_to_video_file.open('wb') as wf:
    response = requests.get(url, stream=True)
    for chunk in response.iter_content(chunk_size=32768):
      wf.write(chunk)

# Upload the video using the Files API
video_file = client.files.upload(file=path_to_video_file)

# Wait for the file to finish processing
while video_file.state.name == 'PROCESSING':
  print('Waiting for video to be processed.')
  time.sleep(2)
  video_file = client.files.get(name=video_file.name)

print(f'Video processing complete: {video_file.uri}')

# You must use an explicit version suffix: "-flash-001", not just "-flash".
model='models/gemini-2.0-flash-001'

# Create a cache with a 5 minute TTL
cache = client.caches.create(
    model=model,
    config=types.CreateCachedContentConfig(
      display_name='sherlock jr movie', # used to identify the cache
      system_instruction=(
          'You are an expert video analyzer, and your job is to answer '
          'the user\'s query based on the video file you have access to.'
      ),
      contents=[video_file],
      ttl="300s",
  )
)

# Construct a GenerativeModel which uses the created cache.
response = client.models.generate_content(
  model = model,
  contents= (
    'Introduce different characters in the movie by describing '
    'their personality, looks, and names. Also list the timestamps '
    'they were introduced for the first time.'),
  config=types.GenerateContentConfig(cached_content=cache.name)
)

print(response.usage_metadata)

# The output should look something like this:
#
# prompt_token_count: 696219
# cached_content_token_count: 696190
# candidates_token_count: 214
# total_token_count: 696433

print(response.text)

PDF

from google import genai
from google.genai import types
import io
import httpx

client = genai.Client()

long_context_pdf_path = "https://www.nasa.gov/wp-content/uploads/static/history/alsj/a17/A17_FlightPlan.pdf"

# Retrieve and upload the PDF using the File API
doc_io = io.BytesIO(httpx.get(long_context_pdf_path).content)

document = client.files.upload(
  file=doc_io,
  config=dict(mime_type='application/pdf')
)

model_name = "gemini-2.0-flash-001"
system_instruction = "You are an expert analyzing transcripts."

# Create a cached content object
cache = client.caches.create(
    model=model_name,
    config=types.CreateCachedContentConfig(
      system_instruction=system_instruction,
      contents=[document],
    )
)

# Display the cache details
print(f'{cache=}')

# Generate content using the cached prompt and document
response = client.models.generate_content(
  model=model_name,
  contents="Please summarize this transcript",
  config=types.GenerateContentConfig(
    cached_content=cache.name
  ))

# (Optional) Print usage metadata for insights into the API call
print(f'{response.usage_metadata=}')

# Print the generated text
print('\n\n', response.text)

列出缓存

您无法检索或查看缓存的内容,但可以检索缓存元数据(namemodeldisplay_nameusage_metadatacreate_timeupdate_timeexpire_time)。

如需列出所有已上传缓存的元数据,请使用 CachedContent.list()

for cache in client.caches.list():
  print(cache)

如需提取一个缓存对象的元数据(如果您知道其名称),请使用 get

client.caches.get(name=name)

更新缓存

您可以为缓存设置新的 ttlexpire_time。不支持更改缓存的其他任何方面。

以下示例展示了如何使用 client.caches.update() 更新缓存的 ttl

from google import genai
from google.genai import types

client.caches.update(
  name = cache.name,
  config  = types.UpdateCachedContentConfig(
      ttl='300s'
  )
)

如需设置过期时间,该方法将接受 datetime 对象或 ISO 格式的日期时间字符串(dt.isoformat(),例如 2025-01-27T16:02:36.473528+00:00)。您的时间必须包含时区(datetime.utcnow() 不附加时区,datetime.now(datetime.timezone.utc) 附加时区)。

from google import genai
from google.genai import types
import datetime

# You must use a time zone-aware time.
in10min = datetime.datetime.now(datetime.timezone.utc) + datetime.timedelta(minutes=10)

client.caches.update(
  name = cache.name,
  config  = types.UpdateCachedContentConfig(
      expire_time=in10min
  )
)

删除缓存

缓存服务提供了一种删除操作,用于手动从缓存中移除内容。以下示例展示了如何删除缓存:

client.caches.delete(cache.name)

使用 OpenAI 库进行显式缓存

如果您使用的是 OpenAI 库,则可以使用 extra_body 上的 cached_content 属性启用显式缓存。

何时使用显式缓存

上下文缓存特别适合较短的请求重复引用大量初始上下文的场景。例如,对于以下使用场景,可以考虑使用上下文缓存:

  • 有大量系统指令的聊天机器人
  • 对较长的视频文件进行的重复分析
  • 针对大型文档集的定期查询
  • 频繁的代码库分析或 bug 修复

显式缓存如何降低成本

虽然上下文缓存是一项付费功能,但它的目的是为了降低整体的运营成本。结算取决于以下因素:

  1. 缓存词元数:缓存的输入词元数,如果相同的词元在后续提示中被重复使用,则按折扣费率计费。
  2. 存储时长:所缓存词元的存储时长 (TTL),按缓存词元数的 TTL 时长计费。TTL 没有最小值或最大值限制。
  3. 其他因素:可能还会产生其他费用,例如非缓存输入词元和输出词元的费用。

如需了解最新价格详情,请参阅 Gemini API 价格页面。如需了解如何计算 token,请参阅 token 指南

其他注意事项

使用上下文缓存时,请注意以下事项:

  • 对于 2.5 Flash,上下文缓存的输入 token 数下限为 1,024;对于 2.5 Pro,上下文缓存的输入 token 数下限为 2,048。最大值与相应型号的最大值相同。(如需详细了解如何统计 token 数量,请参阅 token 指南)。
  • 该模型不会区分缓存的令牌和常规输入令牌。缓存的内容是提示的前缀。
  • 上下文缓存没有特殊费率或使用限制;GenerateContent 的标准费率限制适用,并且令牌限制包括缓存的令牌。
  • 缓存令牌的数量会通过缓存服务的创建、获取和列出操作的 usage_metadata 返回,也会在使用缓存时通过 GenerateContent 返回。