Models

方法:models.get

获取有关特定模型的信息。

端点

<ph type="x-smartling-placeholder"></ph> 领取 https://generativelanguage.googleapis.com/v1beta/{name=models/*}

路径参数

name string

必需。模型的资源名称。

此名称应与 models.list 方法返回的模型名称一致。

格式:models/{model}。其格式为 models/{model}

请求正文

请求正文必须为空。

示例请求

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-pro?key=$GOOGLE_API_KEY

响应正文

如果成功,则响应正文包含一个 Model 实例。

方法:models.list

列出通过 API 提供的模型。

端点

<ph type="x-smartling-placeholder"></ph> 领取 https://generativelanguage.googleapis.com/v1beta/models

查询参数

pageSize integer

每页返回的 Models 数量上限。

该服务返回的模型数量可能较少。如果未指定,每个页面最多返回 50 个模型。即使您传递更大的 pageSize,此方法也会每页最多返回 1000 个模型。

pageToken string

从上一次 models.list 调用收到的页面令牌。

将一个请求返回的 pageToken 作为参数提供给下一个请求,以检索下一页。

进行分页时,提供给 models.list 的所有其他参数必须与提供页面令牌的调用匹配。

请求正文

请求正文必须为空。

示例请求

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

响应正文

来自 ListModel 的响应,其中包含分页的模型列表。

如果成功,响应正文将包含结构如下的数据:

田野
models[] object (Model)

返回的模型。

nextPageToken string

一个令牌,可作为 pageToken 发送以检索下一页。

如果省略此字段,则不存在其他页面。

JSON 表示法
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

REST 资源:model

资源:Model

有关生成式语言模型的信息。

JSON 表示法
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}
田野
name string

必需。Model 的资源名称。

格式:models/{model}{model} 命名惯例为:

  • &quot;{baseModelId}-{version}&quot;

示例:

  • models/chat-bison-001
baseModelId string

必需。基本模型的名称,将其传递给生成请求。

示例:

  • chat-bison
version string

必需。模型的版本号。

这表示

displayName string

人类可读的模型名称。例如“Chat Bison”。

名称不得超过 128 个字符,可以包含任何 UTF-8 字符。

description string

模型的简短说明。

inputTokenLimit integer

此模型允许的输入令牌数量上限。

outputTokenLimit integer

此模型可用的输出词元数上限。

supportedGenerationMethods[] string

模型支持的生成方法。

方法名称被定义为 Pascal 大小写字符串,例如与 API 方法对应的 generateMessage

temperature number

控制输出的随机性。

值可介于 [0.0,maxTemperature](含)之间。值越大,生成的回答变化就越多;如果值越接近 0.0,模型回答的出人意料就越少。此值指定后端在调用模型时要使用的默认值。

maxTemperature number

此模型可以使用的最高温度。

topP number

适用于 Nucleus 采样。

核采样会考虑概率总和至少为 topP 的最小词元集。此值指定后端在调用模型时要使用的默认值。

topK integer

适用于 Top-k 采样。

Top-k 采样会考虑概率最高的 topK 个词元。此值指定后端在调用模型时要使用的默认值。如果为空,则表示模型不使用 Top-k 采样,并且不允许将 topK 用作生成参数。