PaLM (decommissioned)

เมธอด: models.generateText

สร้างคำตอบจากโมเดลเมื่อได้รับข้อความอินพุต

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่จะใช้ในการสร้างข้อความที่สมบูรณ์ ตัวอย่าง: models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยจะอยู่ในรูปแบบ models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ป้อนให้กับโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะสร้างการตอบกลับ TextCompletion ที่คาดการณ์ว่าเป็นการเติมข้อความที่ป้อน

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการSafetySettingอินสแตนซ์ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลบังคับใช้กับ GenerateTextRequest.prompt และ GenerateTextResponse.candidates ไม่ควรมีการตั้งค่ามากกว่า 1 รายการสำหรับSafetyCategoryแต่ละประเภท API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละรายการที่SafetyCategoryระบุไว้ใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น ระบบรองรับหมวดหมู่ที่เป็นอันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS ในบริการข้อความ

stopSequences[] string

ชุดลำดับอักขระ (สูงสุด 5 รายการ) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดที่ลำดับหยุดแรกที่ปรากฏ ระบบจะไม่รวมลำดับการหยุดเป็นส่วนหนึ่งของคำตอบ

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature ของ Model ที่แสดงผลโดยฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะสร้างคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ในขณะที่ค่าที่ใกล้เคียงกับ 0.0 โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่ตรงไปตรงมามากขึ้น

candidateCount integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล

ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวมค่าแรกและค่าสุดท้าย) หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในคำตอบ

หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น outputTokenLimit ที่ระบุไว้ในข้อกำหนด Model

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง

โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนด เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ในขณะที่การสุ่มตัวอย่างนิวเคลียสจะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p ของ Model ที่แสดงผลโดยฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง

โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopKความน่าจะเป็นสูงสุด ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k ของ Model ที่แสดงผลโดยฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

เมธอด: models.countTextTokens

เรียกใช้โทเค็นไนเซอร์ของโมเดลในข้อความและแสดงผลจำนวนโทเค็น

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะใช้เป็นรหัสเพื่อให้โมเดลใช้

ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list แสดงผล

รูปแบบ: models/{model} มีรูปแบบเป็น models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ป้อนให้กับโมเดลเป็นพรอมต์

เนื้อหาการตอบกลับ

คำตอบจาก models.countTextTokens

โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
tokenCount integer

จำนวนโทเค็นที่โทเค็น model โทเค็น prompt

เป็นค่าที่ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: models.generateMessage

สร้างคำตอบจากโมเดลเมื่อได้รับอินพุต MessagePrompt

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของโมเดลที่จะใช้

รูปแบบ: name=models/{model} ซึ่งจะอยู่ในรูปแบบ models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (MessagePrompt)

ต้องระบุ อินพุตข้อความที่มีโครงสร้างซึ่งป้อนให้กับโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะแสดงข้อความที่คาดการณ์ว่าจะเป็นข้อความถัดไปในการสนทนา

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะสร้างคำตอบที่หลากหลายมากขึ้น ในขณะที่ค่าที่ใกล้เคียงกับ 0.0 โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่น่าประหลาดใจน้อยลง

candidateCount integer

ไม่บังคับ จำนวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดงผล

ค่านี้ต้องอยู่ระหว่าง [1, 8] โดยรวม หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ 1 เป็นค่าเริ่มต้น

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง

โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส

การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดซึ่งมีผลรวมความน่าจะเป็นอย่างน้อย topP

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง

โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopKความน่าจะเป็นสูงสุด

เนื้อหาการตอบกลับ

คำตอบจากโมเดล

ซึ่งรวมถึงข้อความของผู้สมัครและประวัติการสนทนาในรูปแบบของข้อความที่เรียงตามลำดับเวลา

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
candidates[] object (Message)

ข้อความตอบกลับของผู้สมัครจากโมเดล

messages[] object (Message)

ประวัติการสนทนาที่โมเดลใช้

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และคำตอบ

ซึ่งจะระบุ SafetyCategory ที่บล็อกผู้สมัครจากการตอบกลับนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น

การแสดง JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

เมธอด: models.countMessageTokens

เรียกใช้โทเค็นไนเซอร์ของโมเดลในสตริงและแสดงผลจำนวนโทเค็น

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะใช้เป็นรหัสเพื่อให้โมเดลใช้

ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list แสดงผล

รูปแบบ: models/{model} มีรูปแบบเป็น models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (MessagePrompt)

ต้องระบุ พรอมต์ที่จะแสดงจำนวนโทเค็น

เนื้อหาการตอบกลับ

คำตอบจาก models.countMessageTokens

โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
tokenCount integer

จำนวนโทเค็นที่โทเค็น model โทเค็น prompt

เป็นค่าที่ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: models.embedText

สร้างการฝังจากโมเดลเมื่อได้รับข้อความอินพุต

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} ซึ่งจะอยู่ในรูปแบบ models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
text string

ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embedding object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความอินพุต

การแสดง JSON
{
  "embedding": {
    object (Embedding)
  }
}

เมธอด: models.batchEmbedText

สร้างการฝังหลายรายการจากโมเดลโดยใช้ข้อความอินพุตในการเรียกแบบซิงโครนัส

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model ที่จะใช้ในการสร้างการฝัง ตัวอย่าง: models/embedding-gecko-001 โดยจะอยู่ในรูปแบบ models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
texts[] string

ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding ปัจจุบันจำกัดไว้ที่ 100 ข้อความ หากเกินกว่านี้ ระบบจะแสดงข้อผิดพลาด

requests[] object (EmbedTextRequest)

ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่าได้เพียง texts หรือ requests อย่างใดอย่างหนึ่งเท่านั้น

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embeddings[] object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความอินพุต

การแสดง JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

ขอรับการฝังข้อความจากโมเดล

ฟิลด์
model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}

text string

ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding

การแสดง JSON
{
  "model": string,
  "text": string
}

ContentFilter

ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคำขอเดียว

ContentFilter มีเหตุผลและสตริงเสริมที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล

ฟิลด์
reason enum (BlockedReason)

เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ

message string

สตริงที่อธิบายลักษณะการกรองโดยละเอียด

การแสดง JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

รายการเหตุผลที่ระบบอาจบล็อกเนื้อหา

Enum
BLOCKED_REASON_UNSPECIFIED ไม่ได้ระบุเหตุผลที่ถูกบล็อก
SAFETY การตั้งค่าความปลอดภัยบล็อกเนื้อหา
OTHER เนื้อหาถูกบล็อก แต่ไม่ได้ระบุเหตุผล

การฝัง

รายการของจำนวนทศนิยมที่แสดงการฝัง

ฟิลด์
value[] number

ค่าการฝัง

การแสดง JSON
{
  "value": [
    number
  ]
}

ข้อความ

หน่วยพื้นฐานของข้อความที่มีโครงสร้าง

Message ประกอบด้วย author และcontent ของ Message

author ใช้เพื่อติดแท็กข้อความเมื่อป้อนข้อความลงในโมเดล

ฟิลด์
author string

ไม่บังคับ ผู้เขียนข้อความนี้

ซึ่งจะเป็นคีย์สำหรับการติดแท็กเนื้อหาของข้อความนี้เมื่อป้อนไปยังโมเดลเป็นข้อความ

ผู้เขียนอาจเป็นสตริงที่มีตัวอักษรและตัวเลขคละกัน

content string

ต้องระบุ เนื้อหาข้อความของ Message ที่มีโครงสร้าง

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับcontentที่โมเดลสร้างขึ้นMessage

หาก Message นี้สร้างขึ้นเป็นเอาต์พุตจากโมเดล ระบบอาจป้อนข้อมูลการระบุแหล่งที่มาสำหรับข้อความใดๆ ที่รวมอยู่ใน content ลงในช่องนี้ ฟิลด์นี้ใช้ในเอาต์พุตเท่านั้น

การแสดง JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

ข้อความอินพุตที่มีโครงสร้างทั้งหมดจะส่งไปยังโมเดลเป็นพรอมต์

MessagePromptประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความอินพุตของผู้ใช้/เอาต์พุตของโมเดลที่เตรียมโมเดลให้ตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความที่แสดงถึงการสนทนาสลับกันระหว่างผู้ใช้กับโมเดล

ฟิลด์
context string

ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่ออ้างอิงคำตอบ

หากไม่ว่างเปล่า ระบบจะส่ง context นี้ไปยังโมเดลก่อน examples และ messages เมื่อใช้ context โปรดระบุในคำขอทุกครั้งเพื่อรักษาความต่อเนื่อง

ฟิลด์นี้อาจเป็นคำอธิบายของพรอมต์ที่คุณป้อนให้กับโมเดลเพื่อช่วยให้บริบทและเป็นแนวทางในการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "เมื่อได้รับข้อความ ให้จัดประเภทความรู้สึกเป็นมีความสุข เศร้า หรือเป็นกลาง"

ข้อมูลใดก็ตามที่รวมอยู่ในช่องนี้จะมีลำดับความสำคัญเหนือกว่าประวัติข้อความ หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดลและระบบตัดคำขออินพุต

examples[] object (Example)

ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง

ซึ่งรวมถึงอินพุตของผู้ใช้และการตอบกลับที่โมเดลควรเลียนแบบ

examples เหล่านี้จะได้รับการปฏิบัติเช่นเดียวกับข้อความการสนทนา ยกเว้นว่าจะมีลำดับความสำคัญเหนือประวัติใน messages: หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดล ระบบจะตัดอินพุต ระบบจะนำรายการออกจาก messages ก่อน examples

messages[] object (Message)

ต้องระบุ สแนปชอตของประวัติการสนทนาล่าสุดที่จัดเรียงตามลำดับเวลา

โดยผู้เขียน 2 คนจะสลับกันเขียน

หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดล ระบบจะตัดอินพุต โดยจะนำรายการที่เก่าที่สุดออกจาก messages

การแสดง JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

ตัวอย่าง

ตัวอย่างอินพุต/เอาต์พุตที่ใช้เพื่อสั่งให้โมเดลทำงาน

ซึ่งจะแสดงให้เห็นว่าโมเดลควรตอบกลับหรือจัดรูปแบบคำตอบอย่างไร

ฟิลด์
input object (Message)

ต้องระบุ ตัวอย่างอินพุต Message จากผู้ใช้

output object (Message)

ต้องระบุ ตัวอย่างสิ่งที่โมเดลควรแสดงเมื่อได้รับอินพุต

การแสดง JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

คำตอบจากโมเดล รวมถึงการเติมข้อความที่เป็นไปได้

ฟิลด์
candidates[] object (TextCompletion)

คำตอบที่เป็นตัวเลือกจากโมเดล

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และคำตอบ

ซึ่งจะระบุ SafetyCategory ที่บล็อกผู้สมัครจากการตอบกลับนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ซึ่งแสดงถึงการเปลี่ยนแปลงที่เล็กที่สุดใน SafetySettings ที่จำเป็นต่อการเลิกบล็อกการตอบกลับอย่างน้อย 1 รายการ

SafetySettings ในคำขอ (หรือ SafetySettings เริ่มต้นของ API) จะกำหนดค่าการบล็อก

safetyFeedback[] object (SafetyFeedback)

แสดงความคิดเห็นด้านความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา

การแสดง JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

ข้อความเอาต์พุตที่โมเดลแสดงผล

ฟิลด์
output string

เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งส่งคืนจากโมเดล

safetyRatings[] object (SafetyRating)

คะแนนความปลอดภัยของคำตอบ

มีการจัดประเภทได้สูงสุด 1 รายการต่อหมวดหมู่

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับoutputที่โมเดลสร้างขึ้นTextCompletion

ช่องนี้อาจมีข้อมูลการระบุแหล่งที่มาสำหรับข้อความใดๆ ที่รวมอยู่ใน output

การแสดง JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด

ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือการตอบกลับถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีสำหรับ HarmCategory บางรายการ SafetyFeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คำขอใช้ รวมถึง HarmProbability ต่ำสุดที่ควรอนุญาตเพื่อแสดงผลลัพธ์

ฟิลด์
rating object (SafetyRating)

คะแนนความปลอดภัยที่ประเมินจากเนื้อหา

setting object (SafetySetting)

การตั้งค่าความปลอดภัยที่ใช้กับคำขอ

การแสดง JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

ข้อความที่ส่งให้โมเดลเป็นพรอมต์

โมเดลจะใช้ TextPrompt นี้เพื่อสร้างข้อความที่เติมให้สมบูรณ์

ฟิลด์
text string

ต้องระบุ ข้อความพรอมต์

การแสดง JSON
{
  "text": string
}