当以文本、图片、视频和音频作为输入时,Gemini API 可以生成文本输出。
本指南介绍了如何使用 generateContent
和 streamGenerateContent
方法生成文本。如需了解如何使用 Gemini 的视觉和音频功能,请参阅Vision和音频指南。
根据纯文本输入生成文本
使用 Gemini API 生成文本的最简单方法是向模型提供单个纯文本输入,如以下示例所示:
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content(
model="gemini-2.0-flash",
contents=["How does AI work?"])
print(response.text)
在本例中,问题(“解释 AI 的工作原理”)不包含任何输出示例、系统说明或格式设置信息。这是一种零样本方法。对于某些用例,一次性或多次性提示可能会生成更符合用户预期的输出。在某些情况下,您可能还需要提供系统说明,以帮助模型理解任务或遵循特定准则。
根据文本和图片输入生成文本
Gemini API 支持将文本和媒体文件组合在一起的多模态输入。以下示例展示了如何根据文本和图片输入生成文本:
from PIL import Image
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
image = Image.open("/path/to/organ.png")
response = client.models.generate_content(
model="gemini-2.0-flash",
contents=[image, "Tell me about this instrument"])
print(response.text)
生成文本串流
默认情况下,模型会在完成整个文本生成流程后返回回答。您可以通过不等待完整结果,而是使用流式传输来处理部分结果,从而实现更快的互动。
以下示例展示了如何使用 streamGenerateContent
方法实现流式传输,以便根据纯文本输入提示生成文本。
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content_stream(
model="gemini-2.0-flash",
contents=["Explain how AI works"])
for chunk in response:
print(chunk.text, end="")
创建聊天对话
借助 Gemini SDK,您可以收集多轮问题和回答,让用户逐步获得答案,或在遇到多部分问题时获得帮助。此 SDK 功能提供了一个用于跟踪对话历史记录的接口,但在后台使用相同的 generateContent
方法来创建响应。
以下代码示例展示了基本聊天功能的实现:
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
chat = client.chats.create(model="gemini-2.0-flash")
response = chat.send_message("I have 2 dogs in my house.")
print(response.text)
response = chat.send_message("How many paws are in my house?")
print(response.text)
for message in chat._curated_history:
print(f'role - ', message.role, end=": ")
print(message.parts[0].text)
您还可以将流式传输与聊天功能搭配使用,如以下示例所示:
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
chat = client.chats.create(model="gemini-2.0-flash")
response = chat.send_message_stream("I have 2 dogs in my house.")
for chunk in response:
print(chunk.text, end="")
response = chat.send_message_stream("How many paws are in my house?")
for chunk in response:
print(chunk.text, end="")
for message in chat._curated_history:
print(f'role - ', message.role, end=": ")
print(message.parts[0].text)
配置文本生成
您向模型发送的每个提示都包含控制模型如何生成回答的参数。您可以使用 GenerationConfig
配置这些参数。如果您未配置参数,则模型会使用默认选项,这些选项可能会因模型而异。
以下示例展示了如何配置几个可用选项。
from google import genai
from google.genai import types
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content(
model="gemini-2.0-flash",
contents=["Explain how AI works"],
config=types.GenerateContentConfig(
max_output_tokens=500,
temperature=0.1
)
)
print(response.text)
添加系统说明
借助系统说明,您可以根据自己的特定需求和使用情形来控制模型的行为。
通过向模型提供系统指令,您可以为模型提供额外的上下文来了解任务、生成自定义程度更高的回答,并在用户与模型的整个交互过程中遵循特定的准则。您还可以通过设置系统说明来指定产品级行为,与最终用户提供的提示分开。
您可以在初始化模型时设置系统说明:
sys_instruct="You are a cat. Your name is Neko."
client = genai.Client(api_key="GEMINI_API_KEY")
response = client.models.generate_content(
model="gemini-2.0-flash",
config=types.GenerateContentConfig(
system_instruction=sys_instruct),
contents=["your prompt here"]
)
然后,您可以像往常一样向模型发送请求。
如需查看使用系统说明的互动式端到端示例,请参阅系统说明 Colab。
后续步骤
现在,您已经探索了 Gemini API 的基础知识,不妨尝试: