เมธอด: model.generateText
สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์
เมื่อได้รับแจ้ง โมเดลจะสร้างการตอบสนอง Textcomplete ที่คาดว่าเป็นความสมบูรณ์ของข้อความอินพุต
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.prompt
และGenerateTextResponse.candidates
ประเภท SafetyCategory
แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และคำตอบที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละ SafetyCategory
ที่ระบุใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏครั้งแรกของลำดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] (รวมค่าแรกและค่าสุดท้าย) ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล
ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น ExportTokenLimit ที่ระบุในข้อกำหนดเฉพาะ Model
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
เมธอด: model.countTextTokens
เรียกใช้เครื่องมือแปลงข้อมูลเป็นโทเค็นของโมเดลในข้อความและแสดงผลจำนวนโทเค็น
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
จะอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countTextTokens
โดยจะแสดงผล tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จำนวนโทเค็นที่ model
แปลง prompt
เป็นโทเค็น
ไม่ติดลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: model.generateMessage
สร้างการตอบสนองจากโมเดลที่มีอินพุต MessagePrompt
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของโมเดลที่จะใช้
รูปแบบ: name=models/{model}
โดยใช้รูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ อินพุตข้อความที่มีโครงสร้างที่กำหนดให้กับโมเดลเป็นพรอมต์
เมื่อมีพรอมต์ โมเดลจะแสดงผลสิ่งที่คาดการณ์ไว้ว่าเป็นข้อความถัดไปในการสนทนา
temperature
number
ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต
ค่าในช่วงได้เกินกว่า [0.0,1.0]
ค่าที่ใกล้กับ 1.0
จะทำให้ได้คำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0
มักจะทำให้ได้คำตอบจากโมเดลที่ไม่น่าประหลาดใจน้อยลง
candidateCount
integer
ไม่บังคับ จำนวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดงผล
ค่านี้ต้องอยู่ระหว่าง [1, 8]
เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดที่มีผลรวมความน่าจะเป็นอย่างน้อย topP
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ
เนื้อหาการตอบกลับ
การตอบสนองจากโมเดล
ซึ่งจะรวมถึงข้อความของผู้สมัครและประวัติการสนทนาในรูปแบบของข้อความตามลำดับเวลา
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
candidates[]
object (Message
)
ข้อความตอบกลับของผู้สมัครจากโมเดล
messages[]
object (Message
)
ประวัติการสนทนาที่โมเดลใช้
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และข้อความตอบกลับ
ซึ่งระบุว่า SafetyCategory
ใดที่บล็อกผู้สมัครจากคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น
การแสดง JSON |
---|
{ "candidates": [ { object ( |
เมธอด: model.countMessageTokens
เรียกใช้เครื่องมือแปลงข้อมูลเป็นโทเค็นของโมเดลบนสตริงและแสดงผลจำนวนโทเค็น
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
จะอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ ข้อความแจ้งที่ระบุจำนวนโทเค็นที่จะแสดงผล
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countMessageTokens
โดยจะแสดงผล tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จำนวนโทเค็นที่ model
แปลง prompt
เป็นโทเค็น
ไม่ติดลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: model.embedText
สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} โดยใช้รูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
text
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง
เมธอด: collections.batchEmbedText
สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความที่ป้อนในการเรียกแบบพร้อมกัน
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
ที่จะใช้ในการสร้างการฝัง ตัวอย่าง: โมเดล/embedding-gecko-001 ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
texts[]
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ ซึ่งระบบจะแสดงข้อผิดพลาด
requests[]
object (EmbedTextRequest
)
ไม่บังคับ คำขอฝังสำหรับกลุ่ม ตั้งค่า texts
หรือ requests
ได้เพียง 1 รายการเท่านั้น
เนื้อหาการตอบกลับ
การตอบกลับ EmbedTextRequest
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
embeddings[]
object (Embedding
)
เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน
การแสดง JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
ส่งคำขอรับการฝังข้อความจากโมเดล
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}
text
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง
การแสดง JSON |
---|
{ "model": string, "text": string } |
เมธอด: TunModels.generateText
สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ tunedModels/{tunedmodel}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กำหนดให้กับโมเดลเป็นพรอมต์
เมื่อได้รับแจ้ง โมเดลจะสร้างการตอบสนอง Textcomplete ที่คาดว่าเป็นความสมบูรณ์ของข้อความอินพุต
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.prompt
และGenerateTextResponse.candidates
ประเภท SafetyCategory
แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และคำตอบที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละ SafetyCategory
ที่ระบุใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏครั้งแรกของลำดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] (รวมค่าแรกและค่าสุดท้าย) ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล
ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น ExportTokenLimit ที่ระบุในข้อกำหนดเฉพาะ Model
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่างแบบ Top-k และนิวเคลียสแบบรวม
การสุ่มตัวอย่างแบบ Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
ContentFilter
ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคำขอเดียว
ContentFilter ประกอบด้วยเหตุผลและสตริงสนับสนุนที่ไม่บังคับ อาจไม่มีการระบุสาเหตุ
reason
enum (BlockedReason
)
เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ
message
string
สตริงที่อธิบายลักษณะการกรองแบบละเอียดยิ่งขึ้น
การแสดง JSON |
---|
{
"reason": enum ( |
BlockedReason
รายการสาเหตุที่เนื้อหาอาจถูกบล็อก
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ไม่ได้ระบุเหตุผลที่บล็อก |
SAFETY |
การตั้งค่าความปลอดภัยบล็อกเนื้อหา |
OTHER |
เนื้อหาถูกบล็อก แต่สาเหตุนี้ไม่จัดอยู่ในหมวดหมู่ใดๆ |
การฝัง
รายการ Float ที่แสดงการฝัง
value[]
number
ค่าที่ฝัง
การแสดง JSON |
---|
{ "value": [ number ] } |
ข้อความ
หน่วยฐานของข้อความที่มีโครงสร้าง
Message
ประกอบด้วย author
และ content
ของ Message
author
ใช้เพื่อติดแท็กข้อความเมื่อมีการป้อนข้อความไปยังโมเดลเป็นข้อความ
author
string
ไม่บังคับ ผู้เขียนข้อความนี้
ซึ่งทำหน้าที่เป็นคีย์สำหรับการติดแท็กเนื้อหาของข้อความนี้เมื่อมีการป้อนเป็นข้อความไปยังโมเดล
ผู้เขียนอาจเป็นสตริงที่เป็นตัวอักษรและตัวเลขคละกันใดก็ได้
content
string
ต้องระบุ เนื้อหาข้อความของ Message
ที่มีโครงสร้าง
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content
ที่โมเดลสร้างขึ้นใน Message
นี้
หาก Message
นี้สร้างขึ้นเป็นเอาต์พุตจากโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสำหรับข้อความที่รวมอยู่ใน content
ช่องนี้ใช้เฉพาะในเอาต์พุต
การแสดง JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
ข้อความอินพุตที่มีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลในรูปแบบพรอมต์
MessagePrompt
ประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความเอาต์พุตของโมเดล/อินพุตของผู้ใช้ซึ่งเปิดให้โมเดลตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความซึ่งแสดงการเปลี่ยนสลับการสนทนาระหว่างผู้ใช้กับโมเดล
context
string
ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่อให้คำตอบแก่โมเดล
หากไม่ว่างเปล่า ระบบจะให้ context
นี้แก่โมเดลก่อน examples
และ messages
เมื่อใช้ context
อย่าลืมให้คำดังกล่าวกับทุกคำขอเพื่อรักษาความต่อเนื่อง
ช่องนี้อาจเป็นคำอธิบายพรอมต์ของคุณที่มีต่อโมเดล เพื่อช่วยให้บริบทและเป็นแนวทางในการตอบสนอง เช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จำแนกความรู้สึกว่ามีความสุข เศร้า หรือรู้สึกเฉยๆ"
ทุกรายการที่อยู่ในช่องนี้จะมีลำดับความสำคัญเหนือกว่าประวัติข้อความ หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดลและคำขออินพุตถูกตัดออก
examples[]
object (Example
)
ไม่บังคับ ตัวอย่างของสิ่งที่โมเดลควรสร้าง
ซึ่งจะรวมทั้งอินพุตของผู้ใช้และคำตอบที่โมเดลควรจำลอง
ระบบจะดำเนินการกับ examples
เหล่านี้เหมือนกับข้อความการสนทนา เว้นแต่ว่าจะมีความสำคัญเหนือประวัติใน messages
: หากขนาดอินพุตรวมเกิน inputTokenLimit
ของโมเดล ระบบจะตัดทอนอินพุต ระบบจะนำรายการออกจาก messages
ก่อนวันที่ examples
messages[]
object (Message
)
ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดจะจัดเรียงตามลำดับเวลา
สลับใช้ระหว่างผู้เขียน 2 คน
หากขนาดอินพุตรวมเกิน inputTokenLimit
ของโมเดล ระบบจะตัดทอนอินพุตรายการเก่าที่สุดจะถูกตัดออกจาก messages
ตัวอย่าง
GenerateTextResponse
การตอบสนองจากโมเดล รวมถึงความสำเร็จของผู้สมัคร
candidates[]
object (TextCompletion
)
คำตอบสำหรับผู้สมัครจากโมเดล
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และข้อความตอบกลับ
ซึ่งระบุว่า SafetyCategory
ใดที่บล็อกผู้สมัครจากคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ซึ่งระบุการเปลี่ยนแปลงที่น้อยที่สุดใน SafetySettings
ที่จำเป็นต้องเลิกบล็อกคำตอบอย่างน้อย 1 รายการ
SafetySettings
เป็นผู้กำหนดค่าการบล็อกในคำขอ (หรือ SafetySettings
เริ่มต้นของ API)
safetyFeedback[]
object (SafetyFeedback
)
แสดงผลความคิดเห็นด้านความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา
การแสดง JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
ข้อความเอาต์พุตที่ส่งคืนจากโมเดล
output
string
เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล
safetyRatings[]
object (SafetyRating
)
การให้คะแนนความปลอดภัยของคำตอบ
แต่ละหมวดหมู่มีการจัดประเภทได้ไม่เกิน 1 ประเภท
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output
ที่โมเดลสร้างขึ้นใน TextCompletion
นี้
ช่องนี้อาจป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่อยู่ใน output
การแสดง JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด
ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือการตอบกลับถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีอยู่ในหมวดหมู่อันตรายทุกหมวดหมู่ Safetyfeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คําขอใช้ รวมถึงความน่าจะเป็นที่ต่ำที่สุดที่ควรได้รับอนุญาตเพื่อแสดงผลการค้นหา
rating
object (SafetyRating
)
คะแนนความปลอดภัยประเมินจากเนื้อหา
setting
object (SafetySetting
)
ใช้การตั้งค่าความปลอดภัยกับคำขอแล้ว
การแสดง JSON |
---|
{ "rating": { object ( |