PaLM (decommissioned)

เมธอด: models.generateText

สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่างเช่น models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสําหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลกับ GenerateTextRequest.prompt และ GenerateTextResponse.candidates การตั้งค่า SafetyCategory แต่ละประเภทไม่ควรมีมากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดลำดับอักขระ (สูงสุด 5 ชุด) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.temperature ของ Model ที่แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะทำให้เกิดคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ส่วนค่าที่ใกล้เคียงกับ 0.0 มักจะให้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จํานวนคําตอบที่สร้างขึ้นที่จะแสดง

ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวม) หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model เป็นค่าเริ่มต้น

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนดไว้เพื่อให้ระบบพิจารณาเฉพาะโทเค็นที่เป็นไปได้มากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ส่วนการสุ่มตัวอย่าง Nucleus จะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_p ของ Model ที่แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_k ของ Model ที่แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

เมธอด: models.countTextTokens

เรียกใช้ตัวแยกวิเคราะห์ของโมเดลในข้อความและแสดงผลจํานวนโทเค็น

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสสําหรับโมเดลที่จะใช้

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countTextTokens

โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
tokenCount integer

จํานวนโทเค็นที่ model แยก prompt

ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: models.generateMessage

สร้างคำตอบจากโมเดลที่ได้รับอินพุต MessagePrompt

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของโมเดลที่จะใช้

รูปแบบ: name=models/{model} ซึ่งอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (MessagePrompt)

ต้องระบุ อินพุตข้อความแบบมีโครงสร้างที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะแสดงข้อความถัดไปในการสนทนาตามที่คาดการณ์ไว้

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ขึ้นไป ค่าที่ใกล้กับ 1.0 จะสร้างคำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0 มักจะให้คำตอบที่ไม่น่าแปลกใจจากโมเดลน้อยลง

candidateCount integer

ไม่บังคับ จํานวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดง

ค่านี้ต้องอยู่ระหว่าง [1, 8] หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น 1

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Nucleus จะพิจารณาชุดโทเค็นที่น้อยที่สุดซึ่งผลรวมความน่าจะเป็นมีอย่างน้อย topP

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ

เนื้อหาการตอบกลับ

การตอบกลับจากโมเดล

ซึ่งรวมถึงข้อความที่เป็นไปได้และประวัติการสนทนาในรูปแบบข้อความที่จัดเรียงตามลำดับเวลา

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
candidates[] object (Message)

ข้อความตอบกลับของผู้สมัครจากโมเดล

messages[] object (Message)

ประวัติการสนทนาที่โมเดลใช้

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ

ข้อมูลนี้ระบุSafetyCategoryที่บล็อกคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น

การแสดง JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

เมธอด: models.countMessageTokens

เรียกใช้ตัวแยกวิเคราะห์สตริงของโมเดลในสตริงและแสดงผลจํานวนโทเค็น

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสสําหรับโมเดลที่จะใช้

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (MessagePrompt)

ต้องระบุ พรอมต์ที่จะแสดงผลจำนวนโทเค็น

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countMessageTokens

โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
tokenCount integer

จํานวนโทเค็นที่ model แยก prompt

ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

วิธีการ: models.embedText

สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} ซึ่งอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
text string

ไม่บังคับ ข้อความแบบอิสระที่โมเดลจะเปลี่ยนให้เป็นข้อมูลเชิงลึก

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embedding object (Embedding)

เอาต์พุตเท่านั้น ชิ้นงานที่ฝังซึ่งสร้างขึ้นจากข้อความที่ป้อน

การแสดง JSON
{
  "embedding": {
    object (Embedding)
  }
}

เมธอด: models.batchEmbedText

สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความอินพุตในการเรียกใช้แบบซิงค์

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model ที่จะใช้สําหรับสร้างการฝัง ตัวอย่างเช่น models/embedding-gecko-001 โดยจะมีรูปแบบเป็น models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
texts[] string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ หากเกินจำนวนนี้ ระบบจะแสดงข้อผิดพลาด

requests[] object (EmbedTextRequest)

ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่าได้เพียง texts หรือ requests อย่างใดอย่างหนึ่งเท่านั้น

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embeddings[] object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างขึ้นจากข้อความอินพุต

การแสดง JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

คำขอรับการฝังข้อความจากโมเดล

ฟิลด์
model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}

text string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนให้เป็นเอ็มเบ็ดดิ้ง

การแสดง JSON
{
  "model": string,
  "text": string
}

เมธอด: tunedModels.generateText

สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่างเช่น models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยอยู่ในรูปแบบ tunedModels/{tunedmodel}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสําหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลกับ GenerateTextRequest.prompt และ GenerateTextResponse.candidates การตั้งค่า SafetyCategory แต่ละประเภทไม่ควรมีมากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดลำดับอักขระ (สูงสุด 5 ชุด) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.temperature ของ Model ที่แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะทำให้เกิดคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ส่วนค่าที่ใกล้เคียงกับ 0.0 มักจะให้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จํานวนคําตอบที่สร้างขึ้นที่จะแสดง

ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวม) หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model เป็นค่าเริ่มต้น

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนดไว้เพื่อให้ระบบพิจารณาเฉพาะโทเค็นที่เป็นไปได้มากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ส่วนการสุ่มตัวอย่าง Nucleus จะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_p ของ Model ที่แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_k ของ Model ที่แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

ContentFilter

ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคําขอเดียว

ContentFilter มีเหตุผลและสตริงสนับสนุนที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล

ฟิลด์
reason enum (BlockedReason)

เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ

message string

สตริงที่อธิบายลักษณะการกรองอย่างละเอียด

การแสดง JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

รายการสาเหตุที่เนื้อหาอาจถูกบล็อก

Enum
BLOCKED_REASON_UNSPECIFIED ไม่ได้ระบุเหตุผลที่ถูกบล็อก
SAFETY เนื้อหาถูกบล็อกโดยการตั้งค่าความปลอดภัย
OTHER เนื้อหาถูกบล็อก แต่ไม่มีการจัดหมวดหมู่เหตุผล

การฝัง

รายการตัวเลขทศนิยมที่แสดงการฝัง

ฟิลด์
value[] number

ค่าการฝัง

การแสดง JSON
{
  "value": [
    number
  ]
}

ข้อความ

หน่วยพื้นฐานของ Structured Text

Message มี author และ content ของ Message

author ใช้เพื่อติดแท็กข้อความเมื่อส่งไปยังโมเดลเป็นข้อความ

ฟิลด์
author string

ไม่บังคับ ผู้เขียนข้อความนี้

ซึ่งใช้เป็นคีย์ในการติดแท็กเนื้อหาของข้อความนี้เมื่อส่งไปยังโมเดลเป็นข้อความ

ผู้เขียนอาจเป็นสตริงตัวอักษรและตัวเลขคละกันก็ได้

content string

ต้องระบุ เนื้อหาข้อความของ Message ที่มีโครงสร้าง

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content ที่สร้างขึ้นจากโมเดลใน Message นี้

หาก Message นี้สร้างขึ้นจากเอาต์พุตของโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่รวมอยู่ใน content ช่องนี้ใช้กับเอาต์พุตเท่านั้น

การแสดง JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

ข้อความอินพุตแบบมีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลเป็นพรอมต์

MessagePrompt มีชุดช่องที่มีโครงสร้างซึ่งให้บริบทการสนทนา ตัวอย่างคู่ข้อความอินพุตของผู้ใช้/เอาต์พุตของโมเดลที่เตรียมโมเดลให้ตอบกลับด้วยวิธีต่างๆ และประวัติการสนทนาหรือรายการข้อความที่แสดงการสนทนาแบบสลับกันระหว่างผู้ใช้กับโมเดล

ฟิลด์
context string

ไม่บังคับ ข้อความที่ควรส่งไปยังโมเดลก่อนเพื่อให้การตอบกลับมีพื้นฐาน

หากไม่ได้เป็นค่าว่าง ระบบจะส่ง context นี้ไปยังโมเดลก่อน examples และ messages เมื่อใช้ context โปรดระบุ context กับคำขอทุกรายการเพื่อรักษาความต่อเนื่อง

ช่องนี้อาจเป็นคำอธิบายพรอมต์สำหรับโมเดลเพื่อช่วยระบุบริบทและแนวทางการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จัดประเภทความรู้สึกเป็น "ดีใจ" "เศร้า" หรือ "กลางๆ" จากข้อความที่ระบุ

ทุกอย่างที่อยู่ในช่องนี้จะมีความสำคัญเหนือกว่าประวัติข้อความหากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดลและมีการตัดคำขออินพุต

examples[] object (Example)

ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง

ซึ่งรวมถึงทั้งข้อมูลจากผู้ใช้และการตอบกลับที่โมเดลควรจําลอง

ระบบจะถือว่า examples เหล่านี้เหมือนกับข้อความการสนทนา ยกเว้นว่า examples จะมีความสำคัญเหนือกว่าประวัติใน messages: หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดล ระบบจะตัดอินพุต ระบบจะยกเลิกการเผยแพร่รายการจาก messages ก่อนวันที่ examples

messages[] object (Message)

ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดที่จัดเรียงตามลำดับเวลา

เปลี่ยนผู้แต่งเป็น 2 คน

หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดล ระบบจะตัดอินพุตให้สั้นลง โดยระบบจะทิ้งรายการที่เก่าที่สุดออกจาก messages

การแสดง JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

ตัวอย่าง

ตัวอย่างอินพุต/เอาต์พุตที่ใช้เพื่อสั่งให้โมเดลทำงาน

ซึ่งจะแสดงให้เห็นว่าโมเดลควรตอบกลับหรือจัดรูปแบบการตอบกลับอย่างไร

ฟิลด์
input object (Message)

ต้องระบุ ตัวอย่างอินพุต Message จากผู้ใช้

output object (Message)

ต้องระบุ ตัวอย่างสิ่งที่โมเดลควรแสดงผลลัพธ์จากอินพุต

การแสดง JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

การตอบกลับจากโมเดล รวมถึงการเติมคำตอบ

ฟิลด์
candidates[] object (TextCompletion)

คำตอบที่เป็นไปได้จากโมเดล

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ

ข้อมูลนี้ระบุSafetyCategoryที่บล็อกคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ค่านี้ระบุการเปลี่ยนแปลง SafetySettings น้อยที่สุดที่จำเป็นในการเลิกบล็อกคำตอบอย่างน้อย 1 รายการ

การบล็อกได้รับการกําหนดค่าโดย SafetySettings ในคําขอ (หรือ SafetySettings เริ่มต้นของ API)

safetyFeedback[] object (SafetyFeedback)

ส่งคืนความคิดเห็นเกี่ยวกับความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา

การแสดง JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

ข้อความเอาต์พุตที่แสดงผลจากโมเดล

ฟิลด์
output string

เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล

safetyRatings[] object (SafetyRating)

คะแนนความปลอดภัยของคำตอบ

แต่ละหมวดหมู่มีการจัดประเภทได้สูงสุด 1 รายการ

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output ที่สร้างขึ้นจากโมเดลใน TextCompletion นี้

ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสําหรับข้อความที่รวมอยู่ใน output

การแสดง JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด

ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือคำตอบถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่อยู่ใน HarmCategory บางรายการ SafetyFeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่ใช้โดยคำขอ รวมถึง HarmProbability ต่ำสุดที่ควรอนุญาตเพื่อให้แสดงผลลัพธ์

ฟิลด์
rating object (SafetyRating)

คะแนนความปลอดภัยที่ประเมินจากเนื้อหา

setting object (SafetySetting)

การตั้งค่าความปลอดภัยที่ใช้กับคำขอ

การแสดง JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

ข้อความที่ส่งไปยังโมเดลเป็นพรอมต์

โมเดลจะใช้ TextPrompt นี้เพื่อสร้างการเติมข้อความ

ฟิลด์
text string

ต้องระบุ ข้อความพรอมต์

การแสดง JSON
{
  "text": string
}