All methods

Generative Language API

借助 Gemini API,开发者可以使用 Gemini 模型构建生成式 AI 应用。Gemini 是 Google 旗下最强大的模型,专为多模态应用而生。它不仅能理解和处理语言、图像、音频、视频和代码等各种信息,更能跨越不同模态,实现信息的融会贯通。您可以使用 Gemini API 来实现各种应用场景,例如跨文本和图像进行推理、生成内容、构建对话代理、开发总结和分类系统等。

服务:generativelanguage.googleapis.com

如要调用此服务,我们建议您使用 Google 提供的客户端库。如果您的应用需要使用您自己的库来调用此服务,则在发出 API 请求时应使用以下信息。

服务端点

服务端点是一个基础网址,指定了 API 服务的网络地址。一项服务可能有多个服务端点。此服务具有以下服务端点,下面的所有 URI 都与此服务端点相关:

  • https://generativelanguage.googleapis.com

REST 资源:v1beta.batches

方法
cancel POST /v1beta/{name=batches/*}:cancel
对长时间运行的操作启动异步取消。
delete DELETE /v1beta/{name=batches/*}
删除长时间运行的操作。
get GET /v1beta/{name=batches/*}
获取长时间运行的操作的最新状态。
list GET /v1beta/{name=batches}
列出与请求中指定的过滤条件匹配的操作。
updateEmbedContentBatch PATCH /v1beta/{embedContentBatch.name=batches/*}:updateEmbedContentBatch
更新一批用于批处理的 EmbedContent 请求。
updateGenerateContentBatch PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch
更新一批用于批处理的 GenerateContent 请求。

REST 资源:v1beta.cachedContents

方法
create POST /v1beta/cachedContents
创建 CachedContent 资源。
delete DELETE /v1beta/{name=cachedContents/*}
删除 CachedContent 资源。
get GET /v1beta/{name=cachedContents/*}
读取 CachedContent 资源。
list GET /v1beta/cachedContents
列出 CachedContent。
patch PATCH /v1beta/{cachedContent.name=cachedContents/*}
更新 CachedContent 资源(只有过期时间可更新)。

REST 资源:v1beta.fileSearchStores

方法
create POST /v1beta/fileSearchStores
创建空的 FileSearchStore
delete DELETE /v1beta/{name=fileSearchStores/*}
删除 FileSearchStore
get GET /v1beta/{name=fileSearchStores/*}
获取有关特定 FileSearchStore 的信息。
importFile POST /v1beta/{fileSearchStoreName=fileSearchStores/*}:importFile
File 从文件服务导入到 FileSearchStore
list GET /v1beta/fileSearchStores
列出用户拥有的所有 FileSearchStores

REST 资源:v1beta.fileSearchStores.documents

方法
delete DELETE /v1beta/{name=fileSearchStores/*/documents/*}
删除 Document
get GET /v1beta/{name=fileSearchStores/*/documents/*}
获取有关特定 Document 的信息。
list GET /v1beta/{parent=fileSearchStores/*}/documents
列出 Corpus 中的所有 Document
query POST /v1beta/{name=fileSearchStores/*/documents/*}:query
Document 执行语义搜索。

REST 资源:v1beta.fileSearchStores.operations

方法
get GET /v1beta/{name=fileSearchStores/*/operations/*}
获取长时间运行的操作的最新状态。

REST 资源:v1beta.fileSearchStores.upload.operations

方法
get GET /v1beta/{name=fileSearchStores/*/upload/operations/*}
获取长时间运行的操作的最新状态。

REST 资源:v1beta.files

方法
delete DELETE /v1beta/{name=files/*}
删除 File
get GET /v1beta/{name=files/*}
获取指定 File 的元数据。
list GET /v1beta/files
列出请求项目拥有的 File 的元数据。

REST 资源:v1beta.media

方法
upload POST /v1beta/files
POST /upload/v1beta/files
创建 File
uploadToFileSearchStore POST /v1beta/{fileSearchStoreName=fileSearchStores/*}:uploadToFileSearchStore
POST /upload/v1beta/{fileSearchStoreName=fileSearchStores/*}:uploadToFileSearchStore
将数据上传到 FileSearchStore,在存储到 FileSearchStore 文档之前对其进行预处理和分块。

REST 资源:v1beta.models

方法
asyncBatchEmbedContent POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent
将一批 EmbedContent 个请求排入队列,以便进行批处理。
batchEmbedContents POST /v1beta/{model=models/*}:batchEmbedContents
根据输入 Content 生成多个嵌入向量,输入 Content 由一批表示为 EmbedContentRequest 对象的字符串组成。
batchEmbedText POST /v1beta/{model=models/*}:batchEmbedText
在同步调用中,根据输入文本从模型生成多个嵌入。
batchGenerateContent POST /v1beta/{batch.model=models/*}:batchGenerateContent
将一批 GenerateContent 个请求排入队列,以便进行批处理。
countMessageTokens POST /v1beta/{model=models/*}:countMessageTokens
对字符串运行模型的分词器,并返回令牌数量。
countTextTokens POST /v1beta/{model=models/*}:countTextTokens
对文本运行模型的分词器,并返回 token 数量。
countTokens POST /v1beta/{model=models/*}:countTokens
对输入 Content 运行模型的分词器,并返回 token 数量。
embedContent POST /v1beta/{model=models/*}:embedContent
使用指定的 Gemini 嵌入模型从输入 Content 生成文本嵌入向量。
embedText POST /v1beta/{model=models/*}:embedText
根据输入消息生成模型中的嵌入。
generateContent POST /v1beta/{model=models/*}:generateContent
根据输入 GenerateContentRequest 生成模型回答。
generateMessage POST /v1beta/{model=models/*}:generateMessage
根据输入 MessagePrompt 生成模型回答。
generateText POST /v1beta/{model=models/*}:generateText
根据输入消息生成模型回答。
get GET /v1beta/{name=models/*}
获取有关特定 Model 的信息,例如其版本号、令牌限制、参数和其他元数据。
list GET /v1beta/models
列出可通过 Gemini API 获取的 Model
predict POST /v1beta/{model=models/*}:predict
执行预测请求。
predictLongRunning POST /v1beta/{model=models/*}:predictLongRunning
与 Predict 相同,但返回 LRO。
streamGenerateContent POST /v1beta/{model=models/*}:streamGenerateContent
根据输入 GenerateContentRequest 从模型生成流式回答