PaLM (deprecated)

เมธอด: collections.generateText

สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์

เมื่อได้รับแจ้ง โมเดลจะสร้างการตอบสนอง Textcomplete ที่คาดว่าเป็นความสมบูรณ์ของข้อความอินพุต

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.promptและGenerateTextResponse.candidates ประเภท SafetyCategory แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และคำตอบที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละ SafetyCategory ที่ระบุใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏครั้งแรกของลำดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature ของ Model แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] (รวมค่าแรกและค่าสุดท้าย) ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล

ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น ExportTokenLimit ที่ระบุในข้อกำหนดเฉพาะ Model

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p ของ Model แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k ของ Model แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

เมธอด: model.countTextTokens

เรียกใช้เครื่องมือแปลงข้อมูลเป็นโทเค็นของโมเดลในข้อความและแสดงผลจำนวนโทเค็น

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} จะอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countTextTokens

โดยจะแสดงผล tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
tokenCount integer

จำนวนโทเค็นที่ model แปลง prompt เป็นโทเค็น

ไม่ติดลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: collections.generateMessage

สร้างการตอบสนองจากโมเดลที่มีอินพุต MessagePrompt

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของโมเดลที่จะใช้

รูปแบบ: name=models/{model} โดยใช้รูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (MessagePrompt)

ต้องระบุ อินพุตข้อความที่มีโครงสร้างที่กำหนดให้กับโมเดลเป็นพรอมต์

เมื่อมีพรอมต์ โมเดลจะแสดงผลสิ่งที่คาดการณ์ไว้ว่าเป็นข้อความถัดไปในการสนทนา

temperature number

ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต

ค่าในช่วงได้เกินกว่า [0.0,1.0] ค่าที่ใกล้กับ 1.0 จะทำให้ได้คำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0 มักจะทำให้ได้คำตอบจากโมเดลที่ไม่น่าประหลาดใจน้อยลง

candidateCount integer

ไม่บังคับ จำนวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดงผล

ค่านี้ต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่น้อยที่สุดซึ่งมีผลรวมความน่าจะเป็นอย่างน้อย topP

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ

เนื้อหาการตอบกลับ

การตอบสนองจากโมเดล

ซึ่งจะรวมถึงข้อความของผู้สมัครและประวัติการสนทนาในรูปแบบของข้อความตามลำดับเวลา

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
candidates[] object (Message)

ข้อความตอบกลับของผู้สมัครจากโมเดล

messages[] object (Message)

ประวัติการสนทนาที่โมเดลใช้

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และข้อความตอบกลับ

ซึ่งระบุว่า SafetyCategory ใดที่บล็อกผู้สมัครจากคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น

การแสดง JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

เมธอด: model.countMessageTokens

เรียกใช้เครื่องมือแปลงข้อมูลเป็นโทเค็นของโมเดลบนสตริงและแสดงผลจำนวนโทเค็น

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} จะอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (MessagePrompt)

ต้องระบุ ข้อความแจ้งที่ระบุจำนวนโทเค็นที่จะแสดงผล

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countMessageTokens

โดยจะแสดงผล tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
tokenCount integer

จำนวนโทเค็นที่ model แปลง prompt เป็นโทเค็น

ไม่ติดลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: collections.embedText

สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} โดยใช้รูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
text string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
embedding object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน

การแสดง JSON
{
  "embedding": {
    object (Embedding)
  }
}

เมธอด: collections.batchEmbedText

สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความที่ป้อนในการเรียกแบบพร้อมกัน

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model ที่จะใช้ในการสร้างการฝัง ตัวอย่าง: โมเดล/embedding-gecko-001 ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
texts[] string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ ซึ่งระบบจะแสดงข้อผิดพลาด

requests[] object (EmbedTextRequest)

ไม่บังคับ คำขอฝังสำหรับกลุ่ม ตั้งค่า texts หรือ requests ได้เพียง 1 รายการเท่านั้น

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
embeddings[] object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน

การแสดง JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

ส่งคำขอรับการฝังข้อความจากโมเดล

การแสดง JSON
{
  "model": string,
  "text": string
}
ช่อง
model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}

text string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง

เมธอด: TunModels.generateText

สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ tunedModels/{tunedmodel}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์

เมื่อได้รับแจ้ง โมเดลจะสร้างการตอบสนอง Textcomplete ที่คาดว่าเป็นความสมบูรณ์ของข้อความอินพุต

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.promptและGenerateTextResponse.candidates ประเภท SafetyCategory แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และคำตอบที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละ SafetyCategory ที่ระบุใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏครั้งแรกของลำดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature ของ Model แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] (รวมค่าแรกและค่าสุดท้าย) ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล

ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น ExportTokenLimit ที่ระบุในข้อกำหนดเฉพาะ Model

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p ของ Model แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม

การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k ของ Model แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

ContentFilter

ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคำขอเดียว

ContentFilter ประกอบด้วยเหตุผลและสตริงสนับสนุนที่ไม่บังคับ อาจไม่มีการระบุสาเหตุ

การแสดง JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
ช่อง
reason enum (BlockedReason)

เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ

message string

สตริงที่อธิบายลักษณะการกรองแบบละเอียดยิ่งขึ้น

BlockedReason

รายการสาเหตุที่เนื้อหาอาจถูกบล็อก

Enum
BLOCKED_REASON_UNSPECIFIED ไม่ได้ระบุเหตุผลที่บล็อก
SAFETY การตั้งค่าความปลอดภัยบล็อกเนื้อหา
OTHER เนื้อหาถูกบล็อก แต่สาเหตุนี้ไม่จัดอยู่ในหมวดหมู่ใดๆ

การฝัง

รายการ Float ที่แสดงการฝัง

การแสดง JSON
{
  "value": [
    number
  ]
}
ช่อง
value[] number

ค่าที่ฝัง

ข้อความ

หน่วยฐานของข้อความที่มีโครงสร้าง

Message ประกอบด้วย author และ content ของ Message

author ใช้เพื่อติดแท็กข้อความเมื่อมีการป้อนข้อความไปยังโมเดลเป็นข้อความ

การแสดง JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
ช่อง
author string

ไม่บังคับ ผู้เขียนข้อความนี้

ซึ่งทำหน้าที่เป็นคีย์สำหรับการติดแท็กเนื้อหาของข้อความนี้เมื่อมีการป้อนเป็นข้อความไปยังโมเดล

ผู้เขียนอาจเป็นสตริงที่เป็นตัวอักษรและตัวเลขคละกันใดก็ได้

content string

ต้องระบุ เนื้อหาข้อความของ Message ที่มีโครงสร้าง

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content ที่โมเดลสร้างขึ้นใน Message นี้

หาก Message นี้สร้างขึ้นเป็นเอาต์พุตจากโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสำหรับข้อความที่รวมอยู่ใน content ช่องนี้ใช้เฉพาะในเอาต์พุต

MessagePrompt

ข้อความอินพุตที่มีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลในรูปแบบพรอมต์

MessagePrompt ประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความเอาต์พุตของโมเดล/อินพุตของผู้ใช้ซึ่งเปิดให้โมเดลตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความซึ่งแสดงการเปลี่ยนสลับการสนทนาระหว่างผู้ใช้กับโมเดล

การแสดง JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
ช่อง
context string

ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่อให้คำตอบแก่โมเดล

หากไม่ว่างเปล่า ระบบจะให้ context นี้แก่โมเดลก่อน examples และ messages เมื่อใช้ context อย่าลืมให้คำดังกล่าวกับทุกคำขอเพื่อรักษาความต่อเนื่อง

ช่องนี้อาจเป็นคำอธิบายพรอมต์ของคุณที่มีต่อโมเดล เพื่อช่วยให้บริบทและเป็นแนวทางในการตอบสนอง เช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จำแนกความรู้สึกว่ามีความสุข เศร้า หรือรู้สึกเฉยๆ"

ทุกรายการที่อยู่ในช่องนี้จะมีลำดับความสำคัญเหนือกว่าประวัติข้อความ หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดลและคำขออินพุตถูกตัดออก

examples[] object (Example)

ไม่บังคับ ตัวอย่างของสิ่งที่โมเดลควรสร้าง

ซึ่งจะรวมทั้งอินพุตของผู้ใช้และคำตอบที่โมเดลควรจำลอง

ระบบจะดำเนินการกับ examples เหล่านี้เหมือนกับข้อความการสนทนา เว้นแต่ว่าจะมีความสำคัญเหนือประวัติใน messages: หากขนาดอินพุตรวมเกิน inputTokenLimit ของโมเดล ระบบจะตัดทอนอินพุต ระบบจะนำรายการออกจาก messages ก่อนวันที่ examples

messages[] object (Message)

ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดจะจัดเรียงตามลำดับเวลา

สลับใช้ระหว่างผู้เขียน 2 คน

หากขนาดอินพุตรวมเกิน inputTokenLimit ของโมเดล ระบบจะตัดทอนอินพุตรายการเก่าที่สุดจะถูกตัดออกจาก messages

ตัวอย่าง

ตัวอย่างอินพุต/เอาต์พุตที่ใช้ในการแนะนำโมเดล

โดยสาธิตวิธีที่โมเดลควรตอบสนองหรือจัดรูปแบบการตอบสนอง

การแสดง JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
ช่อง
input object (Message)

ต้องระบุ ตัวอย่างอินพุต Message จากผู้ใช้

output object (Message)

ต้องระบุ ตัวอย่างสิ่งที่โมเดลควรแสดงผลตามอินพุต

GenerateTextResponse

คำตอบจากโมเดล รวมถึงความสำเร็จของผู้สมัคร

การแสดง JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
ช่อง
candidates[] object (TextCompletion)

คำตอบสำหรับผู้สมัครจากโมเดล

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และข้อความตอบกลับ

ซึ่งระบุว่า SafetyCategory ใดที่บล็อกผู้สมัครจากคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ซึ่งระบุการเปลี่ยนแปลงที่น้อยที่สุดใน SafetySettings ที่จำเป็นต้องเลิกบล็อกคำตอบอย่างน้อย 1 รายการ

SafetySettings เป็นผู้กำหนดค่าการบล็อกในคำขอ (หรือ SafetySettings เริ่มต้นของ API)

safetyFeedback[] object (SafetyFeedback)

แสดงผลความคิดเห็นด้านความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา

TextCompletion

ข้อความเอาต์พุตที่ส่งคืนจากโมเดล

การแสดง JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
ช่อง
output string

เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล

safetyRatings[] object (SafetyRating)

การให้คะแนนความปลอดภัยของคำตอบ

แต่ละหมวดหมู่มีการจัดประเภทได้ไม่เกิน 1 ประเภท

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output ที่โมเดลสร้างขึ้นใน TextCompletion นี้

ช่องนี้อาจป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่อยู่ใน output

SafetyFeedback

ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด

ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือการตอบกลับถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีอยู่ในหมวดหมู่อันตรายทุกหมวดหมู่ Safetyfeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คําขอใช้ รวมถึงความน่าจะเป็นที่ต่ำที่สุดที่ควรได้รับอนุญาตเพื่อแสดงผลการค้นหา

การแสดง JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
ช่อง
rating object (SafetyRating)

คะแนนความปลอดภัยประเมินจากเนื้อหา

setting object (SafetySetting)

ใช้การตั้งค่าความปลอดภัยกับคำขอแล้ว

TextPrompt

ข้อความที่กำหนดให้โมเดลเป็นพรอมต์

โมเดลจะใช้ TextPrompt นี้เพื่อสร้างข้อความที่สมบูรณ์

การแสดง JSON
{
  "text": string
}
ช่อง
text string

ต้องระบุ ข้อความพรอมต์