เมธอด: model.generateText
สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: model/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบแบบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.prompt
และGenerateTextResponse.candidates
ประเภท SafetyCategory
แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory
แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล
ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
เมธอด: models.countTextTokens
เรียกใช้ตัวแยกวิเคราะห์ของโมเดลในข้อความและแสดงผลจํานวนโทเค็น
ปลายทาง
โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
จะอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countTextTokens
โดยจะแสดงผล tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จํานวนโทเค็นที่ model
แยก prompt
ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: models.generateMessage
สร้างคำตอบจากโมเดลที่ได้รับอินพุต MessagePrompt
ปลายทาง
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของโมเดลที่จะใช้
รูปแบบ: name=models/{model}
โดยจะมีรูปแบบเป็น models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ อินพุตข้อความแบบมีโครงสร้างที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อมีพรอมต์ โมเดลจะแสดงผลสิ่งที่คาดการณ์ไว้ว่าเป็นข้อความถัดไปในการสนทนา
temperature
number
ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0]
ขึ้นไป ค่าที่ใกล้กับ 1.0
จะสร้างคำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0
มักจะให้คำตอบที่ไม่น่าแปลกใจจากโมเดลน้อยลง
candidateCount
integer
ไม่บังคับ จํานวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดง
ค่านี้ต้องอยู่ระหว่าง [1, 8]
หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดที่มีผลรวมความน่าจะเป็นอย่างน้อย topP
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ
เนื้อหาการตอบกลับ
การตอบกลับจากโมเดล
ซึ่งรวมถึงข้อความที่เป็นไปได้และประวัติการสนทนาในรูปแบบข้อความที่จัดเรียงตามลำดับเวลา
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
candidates[]
object (Message
)
ข้อความตอบกลับของผู้สมัครจากโมเดล
messages[]
object (Message
)
ประวัติการสนทนาที่โมเดลใช้
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ
ข้อมูลนี้ระบุSafetyCategory
ที่บล็อกคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น
การแสดง JSON |
---|
{ "candidates": [ { object ( |
เมธอด: collections.countMessageTokens
เรียกใช้ตัวแยกวิเคราะห์สตริงของโมเดลในสตริงและแสดงผลจํานวนโทเค็น
ปลายทาง
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
จะอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ ข้อความแจ้งที่ระบุจำนวนโทเค็นที่จะแสดงผล
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countMessageTokens
โดยจะแสดง tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จํานวนโทเค็นที่ model
แยก prompt
ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
วิธีการ: models.embedText
สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} โดยใช้รูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
text
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง
เมธอด: collections.batchEmbedText
สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความอินพุตในการเรียกใช้แบบซิงค์
ปลายทาง
โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
ที่จะใช้สําหรับสร้างการฝัง ตัวอย่างเช่น models/embedding-gecko-001 โดยจะมีรูปแบบเป็น models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
texts[]
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ หากเกินจำนวนนี้ ระบบจะแสดงข้อผิดพลาด
requests[]
object (EmbedTextRequest
)
ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่า texts
หรือ requests
ได้เพียง 1 รายการเท่านั้น
เนื้อหาการตอบกลับ
การตอบกลับ EmbedTextRequest
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
embeddings[]
object (Embedding
)
เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน
การแสดง JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
คำขอรับการฝังข้อความจากโมเดล
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}
text
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง
การแสดง JSON |
---|
{ "model": string, "text": string } |
เมธอด: TunModels.generateText
สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextพารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ tunedModels/{tunedmodel}
เนื้อหาของคำขอ
เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบแบบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.prompt
และGenerateTextResponse.candidates
ประเภท SafetyCategory
แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory
แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล
ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
ContentFilter
ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคําขอเดียว
ContentFilter ประกอบด้วยเหตุผลและสตริงสนับสนุนที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล
reason
enum (BlockedReason
)
เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ
message
string
สตริงที่อธิบายลักษณะการกรองแบบละเอียดยิ่งขึ้น
การแสดง JSON |
---|
{
"reason": enum ( |
BlockedReason
รายการสาเหตุที่เนื้อหาอาจถูกบล็อก
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ไม่ได้ระบุเหตุผลที่บล็อก |
SAFETY |
การตั้งค่าความปลอดภัยบล็อกเนื้อหา |
OTHER |
เนื้อหาถูกบล็อก แต่สาเหตุนี้ไม่จัดอยู่ในหมวดหมู่ใดๆ |
การฝัง
รายการ Float ที่แสดงการฝัง
value[]
number
ค่าที่ฝัง
การแสดง JSON |
---|
{ "value": [ number ] } |
ข้อความ
หน่วยฐานของข้อความที่มีโครงสร้าง
Message
ประกอบด้วย author
และ content
ของ Message
author
ใช้เพื่อติดแท็กข้อความเมื่อมีการป้อนข้อความไปยังโมเดลเป็นข้อความ
content
string
ต้องระบุ เนื้อหาข้อความของ Message
ที่มีโครงสร้าง
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content
ที่โมเดลสร้างขึ้นใน Message
นี้
หาก Message
นี้สร้างขึ้นจากเอาต์พุตของโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่รวมอยู่ใน content
ช่องนี้ใช้กับเอาต์พุตเท่านั้น
การแสดง JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
ข้อความอินพุตที่มีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลในรูปแบบพรอมต์
MessagePrompt
ประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความเอาต์พุตของโมเดล/อินพุตของผู้ใช้ซึ่งเปิดให้โมเดลตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความซึ่งแสดงการเปลี่ยนสลับการสนทนาระหว่างผู้ใช้กับโมเดล
context
string
ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่อให้คำตอบแก่โมเดล
หากไม่ได้เป็นค่าว่าง ระบบจะส่ง context
นี้ไปยังโมเดลก่อน examples
และ messages
เมื่อใช้ context
อย่าลืมให้คำดังกล่าวกับทุกคำขอเพื่อรักษาความต่อเนื่อง
ช่องนี้อาจเป็นคำอธิบายพรอมต์สำหรับโมเดลเพื่อช่วยระบุบริบทและแนวทางการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จัดประเภทความรู้สึกเป็น "ดีใจ" "เศร้า" หรือ "กลางๆ" จากข้อความที่ระบุ
ทุกอย่างที่อยู่ในช่องนี้จะมีความสำคัญเหนือกว่าประวัติข้อความหากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดลและคำขออินพุตถูกตัดให้สั้นลง
examples[]
object (Example
)
ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง
ซึ่งจะรวมทั้งอินพุตของผู้ใช้และคำตอบที่โมเดลควรจำลอง
ระบบจะดำเนินการกับ examples
เหล่านี้เหมือนกับข้อความการสนทนา เว้นแต่ว่าจะมีความสำคัญเหนือประวัติใน messages
: หากขนาดอินพุตรวมเกิน inputTokenLimit
ของโมเดล ระบบจะตัดทอนอินพุต ระบบจะนำรายการออกจาก messages
ก่อนวันที่ examples
messages[]
object (Message
)
ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดจะจัดเรียงตามลำดับเวลา
สลับใช้ระหว่างผู้เขียน 2 คน
หากขนาดอินพุตรวมเกิน inputTokenLimit
ของโมเดล อินพุตจะถูกตัดออก: รายการที่เก่าที่สุดจะถูกตัดออกจาก messages
ตัวอย่าง
GenerateTextResponse
คำตอบจากโมเดล รวมถึงความสำเร็จของผู้สมัคร
candidates[]
object (TextCompletion
)
คำตอบที่เป็นไปได้จากโมเดล
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ
ข้อมูลนี้ระบุSafetyCategory
ที่บล็อกคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ค่านี้ระบุการเปลี่ยนแปลง SafetySettings
น้อยที่สุดที่จำเป็นในการเลิกบล็อกคำตอบอย่างน้อย 1 รายการ
SafetySettings
เป็นผู้กำหนดค่าการบล็อกในคำขอ (หรือ SafetySettings
เริ่มต้นของ API)
safetyFeedback[]
object (SafetyFeedback
)
ส่งคืนความคิดเห็นเกี่ยวกับความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา
การแสดง JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
ข้อความเอาต์พุตที่ส่งคืนจากโมเดล
output
string
เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล
safetyRatings[]
object (SafetyRating
)
คะแนนความปลอดภัยของคำตอบ
แต่ละหมวดหมู่มีการจัดประเภทได้ไม่เกิน 1 ประเภท
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output
ที่สร้างขึ้นโดยโมเดลใน TextCompletion
นี้
ฟิลด์นี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสําหรับข้อความที่รวมอยู่ใน output
การแสดง JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด
ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือคำตอบถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีอยู่ในหมวดหมู่อันตรายทุกหมวดหมู่ ความคิดเห็นเกี่ยวกับความปลอดภัยแต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คำขอใช้ รวมถึงความน่าจะเป็นที่ต่ำที่สุดที่ควรได้รับอนุญาตเพื่อแสดงผลการค้นหา
rating
object (SafetyRating
)
คะแนนความปลอดภัยที่ประเมินจากเนื้อหา
setting
object (SafetySetting
)
การตั้งค่าความปลอดภัยที่ใช้กับคำขอ
การแสดง JSON |
---|
{ "rating": { object ( |