PaLM (deprecated)

方法:models.generateText

在给定输入消息的情况下,根据模型生成回复。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

路径参数

model string

必需。用于生成补全的 ModelTunedModel 的名称。示例:models/text-bison-001tuneModels/sentence-translator-u3b7m,其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
prompt object (TextPrompt)

必需。作为提示提供给模型的自由格式输入文本。

收到提示后,模型将生成一个 TextCompleted 响应,它预测为输入文本完成。

safetySettings[] object (SafetySetting)

可选。用于屏蔽不安全内容的唯一 SafetySetting 实例的列表。

该要求将在 GenerateTextRequest.promptGenerateTextResponse.candidates 上强制执行。每种 SafetyCategory 类型只能有一项设置。此 API 会屏蔽所有不符合这些设置所设阈值的提示和回答。此列表会替换 safetySettings 中指定的每个 SafetyCategory 的默认设置。如果列表中提供的给定 SafetyCategory 没有 SafetySetting,该 API 将使用该类别的默认安全设置。文本服务支持 HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXICITY、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDical、HARM_CATEGORY_DANGEROUS 类别。

stopSequences[] string

将停止生成输出的字符序列集(最多 5 个)。如果已指定,API 将在停止序列第一次出现时停止。停止序列将不会包含在响应中。

temperature number

可选。控制输出的随机性。注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.temperature 属性。

值的范围为 [0.0,1.0](含边界值)。接近 1.0 的值将产生更加多样化和更有创造力的回答,而接近 0.0 的值通常会产生更直接的模型回答。

candidateCount integer

可选。要返回的已生成响应的数量。

该值必须介于 [1, 8] 之间(含 [1, 8])。如果未设置,则默认为 1。

maxOutputTokens integer

可选。候选字词可包含的词元数量上限。

如果未设置,则默认为 Model 规范中指定的 outputTokenLimit。

topP number

可选。采样时要考虑的词元累计概率上限。

该模型结合使用 Top-k 和核采样。

词元根据为其分配的概率进行排序,因此只会考虑最有可能的词元。Top-k 采样会直接限制可考虑的词元数量上限,而 Nucleus 采样则根据累积概率限制词元数量。

注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.top_p 属性。

topK integer

可选。采样时要考虑的词元数量上限。

该模型结合使用 Top-k 和核采样。

Top-k 采样会考虑概率最高的 topK 个词元。默认值为 40。

注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.top_k 属性。

响应正文

如果成功,则响应正文包含一个 GenerateTextResponse 实例。

方法:models.countTextTokens

对文本运行模型的分词器并返回词元数量。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

路径参数

model string

必需。模型的资源名称。这充当要使用的模型的 ID。

此名称应与 models.list 方法返回的模型名称一致。

格式:models/{model}。其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
prompt object (TextPrompt)

必需。作为提示提供给模型的自由格式输入文本。

响应正文

来自 models.countTextTokens 的回复。

它会返回模型的 prompttokenCount

如果成功,响应正文将包含结构如下的数据:

田野
tokenCount integer

modelprompt 标记化为的词元数量。

始终为非负数。

JSON 表示法
{
  "tokenCount": integer
}

方法:models.generateMessage

在给定输入 MessagePrompt 的情况下,根据模型生成回答。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

路径参数

model string

必需。要使用的模型的名称。

格式:name=models/{model}。其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
prompt object (MessagePrompt)

必需。作为提示提供给模型的结构化文本输入。

在给出提示后,模型将返回它预测的内容是讨论中的下一条消息。

temperature number

可选。控制输出的随机性。

值可介于 [0.0,1.0](含)之间。如果值更接近 1.0,则回答的差异更大;如果值更接近 0.0,模型回答通常也会不太出人意料。

candidateCount integer

可选。要返回的已生成响应消息的数量。

此值必须介于 [1, 8] 之间(包括这两个数值)。如果未设置,则默认为 1

topP number

可选。采样时要考虑的词元累计概率上限。

该模型结合使用 Top-k 和核采样。

核采样会考虑概率总和至少为 topP 的最小词元集。

topK integer

可选。采样时要考虑的词元数量上限。

该模型结合使用 Top-k 和核采样。

Top-k 采样会考虑概率最高的 topK 个词元。

响应正文

模型的响应。

其中包括候选消息和对话记录(消息会按时间顺序排列显示)。

如果成功,响应正文将包含结构如下的数据:

田野
candidates[] object (Message)

来自模型的候选响应消息。

messages[] object (Message)

模型使用的对话历史记录。

filters[] object (ContentFilter)

一组提示和响应文本的内容过滤元数据。

其中会显示哪些SafetyCategory在回答此回答中屏蔽了候选人、触发屏蔽的最低HarmProbability,以及该类别的 HarmThreshold 设置。

JSON 表示法
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

方法:models.countMessageTokens

对字符串运行模型的分词器并返回词元数量。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

路径参数

model string

必需。模型的资源名称。这充当要使用的模型的 ID。

此名称应与 models.list 方法返回的模型名称一致。

格式:models/{model}。其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
prompt object (MessagePrompt)

必需。要返回其词元计数的提示。

响应正文

来自 models.countMessageTokens 的回复。

它会针对 prompt 返回模型的 tokenCount

如果成功,响应正文将包含结构如下的数据:

田野
tokenCount integer

modelprompt 标记化为的词元数量。

始终为非负数。

JSON 表示法
{
  "tokenCount": integer
}

方法:models.embedText

在给定输入消息的情况下,根据模型生成嵌入。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

路径参数

model string

必需。要使用的模型名称,格式为 model=models/{model}。其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
text string

可选。自由格式输入文本,模型将转换为嵌入。

响应正文

对 EmbedTextRequest 的响应。

如果成功,响应正文将包含结构如下的数据:

田野
embedding object (Embedding)

仅限输出。从输入文本生成的嵌入。

JSON 表示法
{
  "embedding": {
    object (Embedding)
  }
}

方法:models.batchEmbedText

在同步调用中给定输入文本,根据模型生成多个嵌入。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

路径参数

model string

必需。要用于生成嵌入的 Model 的名称。示例:models/embedding-gecko-001 其格式为 models/{model}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
texts[] string

可选。自由格式输入文本,模型将转换为嵌入。目前的上限为 100 条文本,超出此上限将抛出错误。

requests[] object (EmbedTextRequest)

可选。批次的嵌入请求。只能设置 textsrequests 中的一个。

响应正文

对 EmbedTextRequest 的响应。

如果成功,响应正文将包含结构如下的数据:

田野
embeddings[] object (Embedding)

仅限输出。从输入文本生成的嵌入。

JSON 表示法
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

请求从模型中获取文本嵌入。

JSON 表示法
{
  "model": string,
  "text": string
}
田野
model string

必需。要使用的模型名称,格式为 model=models/{model}。

text string

可选。自由格式输入文本,模型将转换为嵌入。

方法:tuneModels.generateText

在给定输入消息的情况下,根据模型生成回复。

端点

<ph type="x-smartling-placeholder"></ph> 帖子 https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

路径参数

model string

必需。用于生成补全的 ModelTunedModel 的名称。示例:models/text-bison-001tuneModels/sentence-translator-u3b7m,其格式为 tunedModels/{tunedmodel}

请求正文

请求正文中包含结构如下的数据:

<ph type="x-smartling-placeholder">
</ph> 田野
prompt object (TextPrompt)

必需。作为提示提供给模型的自由格式输入文本。

收到提示后,模型将生成一个 TextCompleted 响应,它预测为输入文本完成。

safetySettings[] object (SafetySetting)

可选。用于屏蔽不安全内容的唯一 SafetySetting 实例的列表。

该要求将在 GenerateTextRequest.promptGenerateTextResponse.candidates 上强制执行。每种 SafetyCategory 类型只能有一项设置。此 API 会屏蔽所有不符合这些设置所设阈值的提示和回答。此列表会替换 safetySettings 中指定的每个 SafetyCategory 的默认设置。如果列表中提供的给定 SafetyCategory 没有 SafetySetting,该 API 将使用该类别的默认安全设置。文本服务支持 HARM_CATEGORY_DEROGATORY、HARM_CATEGORY_TOXICITY、HARM_CATEGORY_VIOLENCE、HARM_CATEGORY_SEXUAL、HARM_CATEGORY_MEDical、HARM_CATEGORY_DANGEROUS 类别。

stopSequences[] string

将停止生成输出的字符序列集(最多 5 个)。如果已指定,API 将在停止序列第一次出现时停止。停止序列将不会包含在响应中。

temperature number

可选。控制输出的随机性。注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.temperature 属性。

值的范围为 [0.0,1.0](含边界值)。接近 1.0 的值将产生更加多样化和更有创造力的回答,而接近 0.0 的值通常会产生更直接的模型回答。

candidateCount integer

可选。要返回的已生成响应的数量。

该值必须介于 [1, 8] 之间(含 [1, 8])。如果未设置,则默认为 1。

maxOutputTokens integer

可选。候选字词可包含的词元数量上限。

如果未设置,则默认为 Model 规范中指定的 outputTokenLimit。

topP number

可选。采样时要考虑的词元累计概率上限。

该模型结合使用 Top-k 和核采样。

词元根据为其分配的概率进行排序,因此只会考虑最有可能的词元。Top-k 采样会直接限制可考虑的词元数量上限,而 Nucleus 采样则根据累积概率限制词元数量。

注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.top_p 属性。

topK integer

可选。采样时要考虑的词元数量上限。

该模型结合使用 Top-k 和核采样。

Top-k 采样会考虑概率最高的 topK 个词元。默认值为 40。

注意:默认值因模型而异,请参阅返回 getModel 函数的 ModelModel.top_k 属性。

响应正文

如果成功,则响应正文包含一个 GenerateTextResponse 实例。

ContentFilter

与处理单个请求相关联的内容过滤元数据。

ContentFilter 包含原因和可选的支持字符串。原因可能不明。

JSON 表示法
{
  "reason": enum (BlockedReason),
  "message": string
}
田野
reason enum (BlockedReason)

内容在请求处理过程中被屏蔽的原因。

message string

更详细地描述过滤行为的字符串。

BlockedReason

内容遭到禁播的可能原因列表。

枚举
BLOCKED_REASON_UNSPECIFIED 未指定屏蔽原因。
SAFETY 内容已被安全设置屏蔽。
OTHER 内容已被屏蔽,但原因未分类。

嵌入

表示嵌入的浮点数列表。

JSON 表示法
{
  "value": [
    number
  ]
}
田野
value[] number

嵌入值。

消息

结构化文本的基本单位。

Message 包括 authorMessagecontent

author 用于在消息以文本形式馈送给模型时对其进行标记。

JSON 表示法
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
田野
author string

可选。此消息的作者。

当此消息以文本形式馈送给模型时,这可充当标记其内容标记的键。

作者可以是任何字母数字字符串。

content string

必需。结构化 Message 的文本内容。

citationMetadata object (CitationMetadata)

仅限输出。此 Message 中模型生成的 content 的引用信息。

如果此 Message 是作为模型的输出生成的,则此字段可能会填充 content 中包含的任何文本的归因信息。此字段仅用于输出。

MessagePrompt

作为提示传递给模型的所有结构化输入文本。

MessagePrompt 包含一组结构化字段,用于提供对话的上下文、促使模型以不同方式做出响应的用户输入/模型输出消息对示例,以及表示用户与模型之间交替对话的对话记录或消息列表。

JSON 表示法
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
田野
context string

可选。应该先将文本提供给模型以打下响应的基础。

如果不为空,则系统将在 examplesmessages 之前先将此 context 提供给模型。使用 context 时,请确保为其提供每个请求,以保持连续性。

此字段可以描述您向模型发出的提示,以帮助提供上下文并指导响应。示例:“将词组从英语翻译成法语。”或“根据陈述,将情感划分为快乐、悲伤或中立。”

如果总输入大小超过模型的 inputTokenLimit,并且输入请求被截断,则此字段中包含的任何内容都将优先于消息历史记录。

examples[] object (Example)

可选。模型应生成内容的示例。

这包括用户输入和模型应模拟的响应。

这些 examples 的处理方式与会话消息相同,只是它们的优先级高于 messages 中的历史记录:如果总输入大小超过模型的 inputTokenLimit,则输入将被截断。商品将在 examples之前从“messages”中移除。

messages[] object (Message)

必需。按时间顺序排序的近期对话历史记录快照。

在两位作者之间交替。

如果总输入大小超过模型的 inputTokenLimit,则输入将被截断:messages 中最早的项将被丢弃。

示例

用于指示模型的输入/输出示例。

它演示了模型应如何响应或设置其响应格式。

JSON 表示法
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
田野
input object (Message)

必需。来自用户的输入 Message 的示例。

output object (Message)

必需。模型在给定输入的情况下应输出的内容示例。

GenerateTextResponse

模型的响应,包括候选字词完成情况。

JSON 表示法
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
田野
candidates[] object (TextCompletion)

来自模型的候选响应。

filters[] object (ContentFilter)

一组提示和响应文本的内容过滤元数据。

其中会显示哪些SafetyCategory在回答此回答中屏蔽了候选人、触发屏蔽的最低HarmProbability,以及该类别的 HarmThreshold 设置。这表示对 SafetySettings 进行的最小更改需要取消屏蔽至少 1 个响应。

屏蔽由请求中的 SafetySettings(或 API 的默认 SafetySettings)配置。

safetyFeedback[] object (SafetyFeedback)

返回与内容过滤相关的所有安全反馈。

TextCompletion

从模型返回的输出文本。

JSON 表示法
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
田野
output string

仅限输出。从模型返回的生成文本。

safetyRatings[] object (SafetyRating)

响应安全性评分。

每个类别最多有一个评分。

citationMetadata object (CitationMetadata)

仅限输出。此 TextCompletion 中模型生成的 output 的引用信息。

此字段可能会填充 output 中包含的任何文本的提供方信息。

SafetyFeedback

针对整个请求的安全反馈。

如果输入内容和/或回答中的内容因安全设置而被屏蔽,系统会填充此字段。并非所有 HarmCategory 事件都存在 SafetyFeedback。每个 SafetyFeedback 均会返回相应请求所使用的安全设置,以及返回结果时应允许的最低 HarmProbability。

JSON 表示法
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
田野
rating object (SafetyRating)

根据内容评估的安全等级。

setting object (SafetySetting)

应用于请求的安全设置。

TextPrompt

作为提示提供给模型的文本。

模型将使用此 TextPrompt 生成文本补全。

JSON 表示法
{
  "text": string
}
田野
text string

必需。提示文本。