เมธอด: models.generateText
สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่างเช่น models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสําหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลกับ GenerateTextRequest.prompt
และ GenerateTextResponse.candidates
การตั้งค่า SafetyCategory
แต่ละประเภทไม่ควรมีมากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory
แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดลำดับอักขระ (สูงสุด 5 ชุด) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
ที่แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะทำให้เกิดคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ส่วนค่าที่ใกล้เคียงกับ 0.0 มักจะให้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จํานวนคําตอบที่สร้างขึ้นที่จะแสดง
ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวม) หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model
เป็นค่าเริ่มต้น
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนดไว้เพื่อให้ระบบพิจารณาเฉพาะโทเค็นที่เป็นไปได้มากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ส่วนการสุ่มตัวอย่าง Nucleus จะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
ที่แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
ที่แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
เมธอด: models.countTextTokens
เรียกใช้ตัวแยกวิเคราะห์ของโมเดลในข้อความและแสดงผลจํานวนโทเค็น
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสสําหรับโมเดลที่จะใช้
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
อยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countTextTokens
โดยจะแสดง tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จํานวนโทเค็นที่ model
แยก prompt
ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: models.generateMessage
สร้างคำตอบจากโมเดลที่ได้รับอินพุต MessagePrompt
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของโมเดลที่จะใช้
รูปแบบ: name=models/{model}
ซึ่งอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ อินพุตข้อความแบบมีโครงสร้างที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะแสดงข้อความถัดไปในการสนทนาตามที่คาดการณ์ไว้
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0]
ขึ้นไป ค่าที่ใกล้กับ 1.0
จะสร้างคำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0
มักจะให้คำตอบที่ไม่น่าแปลกใจจากโมเดลน้อยลง
candidateCount
integer
ไม่บังคับ จํานวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดง
ค่านี้ต้องอยู่ระหว่าง [1, 8]
หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น 1
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Nucleus จะพิจารณาชุดโทเค็นที่น้อยที่สุดซึ่งผลรวมความน่าจะเป็นมีอย่างน้อย topP
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ
เนื้อหาการตอบกลับ
การตอบกลับจากโมเดล
ซึ่งรวมถึงข้อความที่เป็นไปได้และประวัติการสนทนาในรูปแบบข้อความที่จัดเรียงตามลำดับเวลา
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
candidates[]
object (Message
)
ข้อความตอบกลับของผู้สมัครจากโมเดล
messages[]
object (Message
)
ประวัติการสนทนาที่โมเดลใช้
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ
ข้อมูลนี้ระบุSafetyCategory
ที่บล็อกคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น
การแสดง JSON |
---|
{ "candidates": [ { object ( |
เมธอด: models.countMessageTokens
เรียกใช้ตัวแยกวิเคราะห์สตริงของโมเดลในสตริงและแสดงผลจํานวนโทเค็น
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสสําหรับโมเดลที่จะใช้
ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list
รูปแบบ: models/{model}
อยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ พรอมต์ที่จะแสดงผลจำนวนโทเค็น
เนื้อหาการตอบกลับ
การตอบกลับจาก models.countMessageTokens
โดยจะแสดง tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จํานวนโทเค็นที่ model
แยก prompt
ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
วิธีการ: models.embedText
สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} ซึ่งอยู่ในรูปแบบ models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
text
string
ไม่บังคับ ข้อความแบบอิสระที่โมเดลจะเปลี่ยนให้เป็นข้อมูลเชิงลึก
เมธอด: models.batchEmbedText
สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความอินพุตในการเรียกใช้แบบซิงค์
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
ที่จะใช้สําหรับสร้างการฝัง ตัวอย่างเช่น models/embedding-gecko-001 โดยจะมีรูปแบบเป็น models/{model}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
texts[]
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ หากเกินจำนวนนี้ ระบบจะแสดงข้อผิดพลาด
requests[]
object (EmbedTextRequest
)
ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่าได้เพียง texts
หรือ requests
อย่างใดอย่างหนึ่งเท่านั้น
เนื้อหาการตอบกลับ
การตอบกลับ EmbedTextRequest
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
embeddings[]
object (Embedding
)
เอาต์พุตเท่านั้น การฝังที่สร้างขึ้นจากข้อความอินพุต
การแสดง JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
คำขอรับการฝังข้อความจากโมเดล
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}
text
string
ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนให้เป็นเอ็มเบ็ดดิ้ง
การแสดง JSON |
---|
{ "model": string, "text": string } |
เมธอด: tunedModels.generateText
สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต
ปลายทาง
โพสต์https: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
URL ใช้ไวยากรณ์การแปลง gRPC
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่างเช่น models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยอยู่ในรูปแบบ tunedModels/{tunedmodel}
เนื้อหาของคำขอ
เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการอินสแตนซ์ SafetySetting
ที่ไม่ซ้ำกันสําหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลกับ GenerateTextRequest.prompt
และ GenerateTextResponse.candidates
การตั้งค่า SafetyCategory
แต่ละประเภทไม่ควรมีมากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory
แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS
stopSequences[]
string
ชุดลำดับอักขระ (สูงสุด 5 ชุด) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
ที่แสดงผลฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะทำให้เกิดคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ส่วนค่าที่ใกล้เคียงกับ 0.0 มักจะให้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล
candidateCount
integer
ไม่บังคับ จํานวนคําตอบที่สร้างขึ้นที่จะแสดง
ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวม) หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร
หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model
เป็นค่าเริ่มต้น
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนดไว้เพื่อให้ระบบพิจารณาเฉพาะโทเค็นที่เป็นไปได้มากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ส่วนการสุ่มตัวอย่าง Nucleus จะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
ที่แสดงผลฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง
โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK
รายการ ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
ที่แสดงผลฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
ContentFilter
ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคําขอเดียว
ContentFilter มีเหตุผลและสตริงสนับสนุนที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล
reason
enum (BlockedReason
)
เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ
message
string
สตริงที่อธิบายลักษณะการกรองอย่างละเอียด
การแสดง JSON |
---|
{
"reason": enum ( |
BlockedReason
รายการสาเหตุที่เนื้อหาอาจถูกบล็อก
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ไม่ได้ระบุเหตุผลที่ถูกบล็อก |
SAFETY |
เนื้อหาถูกบล็อกโดยการตั้งค่าความปลอดภัย |
OTHER |
เนื้อหาถูกบล็อก แต่ไม่มีการจัดหมวดหมู่เหตุผล |
การฝัง
รายการตัวเลขทศนิยมที่แสดงการฝัง
value[]
number
ค่าการฝัง
การแสดง JSON |
---|
{ "value": [ number ] } |
ข้อความ
หน่วยพื้นฐานของ Structured Text
Message
มี author
และ content
ของ Message
author
ใช้เพื่อติดแท็กข้อความเมื่อส่งไปยังโมเดลเป็นข้อความ
content
string
ต้องระบุ เนื้อหาข้อความของ Message
ที่มีโครงสร้าง
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content
ที่สร้างขึ้นจากโมเดลใน Message
นี้
หาก Message
นี้สร้างขึ้นจากเอาต์พุตของโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่รวมอยู่ใน content
ช่องนี้ใช้กับเอาต์พุตเท่านั้น
การแสดง JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
ข้อความอินพุตแบบมีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลเป็นพรอมต์
MessagePrompt
มีชุดช่องที่มีโครงสร้างซึ่งให้บริบทการสนทนา ตัวอย่างคู่ข้อความอินพุตของผู้ใช้/เอาต์พุตของโมเดลที่เตรียมโมเดลให้ตอบกลับด้วยวิธีต่างๆ และประวัติการสนทนาหรือรายการข้อความที่แสดงการสนทนาแบบสลับกันระหว่างผู้ใช้กับโมเดล
context
string
ไม่บังคับ ข้อความที่ควรส่งไปยังโมเดลก่อนเพื่อให้การตอบกลับมีพื้นฐาน
หากไม่ได้เป็นค่าว่าง ระบบจะส่ง context
นี้ไปยังโมเดลก่อน examples
และ messages
เมื่อใช้ context
โปรดระบุ context
กับคำขอทุกรายการเพื่อรักษาความต่อเนื่อง
ช่องนี้อาจเป็นคำอธิบายพรอมต์สำหรับโมเดลเพื่อช่วยระบุบริบทและแนวทางการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จัดประเภทความรู้สึกเป็น "ดีใจ" "เศร้า" หรือ "กลางๆ" จากข้อความที่ระบุ
ทุกอย่างที่อยู่ในช่องนี้จะมีความสำคัญเหนือกว่าประวัติข้อความหากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดลและมีการตัดคำขออินพุต
examples[]
object (Example
)
ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง
ซึ่งรวมถึงทั้งข้อมูลจากผู้ใช้และการตอบกลับที่โมเดลควรจําลอง
ระบบจะถือว่า examples
เหล่านี้เหมือนกับข้อความการสนทนา ยกเว้นว่า examples
จะมีความสำคัญเหนือกว่าประวัติใน messages
: หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดล ระบบจะตัดอินพุต ระบบจะยกเลิกการเผยแพร่รายการจาก messages
ก่อนวันที่ examples
messages[]
object (Message
)
ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดที่จัดเรียงตามลำดับเวลา
เปลี่ยนผู้แต่งเป็น 2 คน
หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดล ระบบจะตัดอินพุตให้สั้นลง โดยระบบจะทิ้งรายการที่เก่าที่สุดออกจาก messages
ตัวอย่าง
GenerateTextResponse
การตอบกลับจากโมเดล รวมถึงการเติมคำตอบ
candidates[]
object (TextCompletion
)
คำตอบที่เป็นไปได้จากโมเดล
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ
ข้อมูลนี้ระบุSafetyCategory
ที่บล็อกคำตอบนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ค่านี้ระบุการเปลี่ยนแปลง SafetySettings
น้อยที่สุดที่จำเป็นในการเลิกบล็อกคำตอบอย่างน้อย 1 รายการ
การบล็อกได้รับการกําหนดค่าโดย SafetySettings
ในคําขอ (หรือ SafetySettings
เริ่มต้นของ API)
safetyFeedback[]
object (SafetyFeedback
)
ส่งคืนความคิดเห็นเกี่ยวกับความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา
การแสดง JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
ข้อความเอาต์พุตที่แสดงผลจากโมเดล
output
string
เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล
safetyRatings[]
object (SafetyRating
)
คะแนนความปลอดภัยของคำตอบ
แต่ละหมวดหมู่มีการจัดประเภทได้สูงสุด 1 รายการ
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output
ที่สร้างขึ้นจากโมเดลใน TextCompletion
นี้
ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสําหรับข้อความที่รวมอยู่ใน output
การแสดง JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด
ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือคำตอบถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่อยู่ใน HarmCategory บางรายการ SafetyFeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่ใช้โดยคำขอ รวมถึง HarmProbability ต่ำสุดที่ควรอนุญาตเพื่อให้แสดงผลลัพธ์
rating
object (SafetyRating
)
คะแนนความปลอดภัยที่ประเมินจากเนื้อหา
setting
object (SafetySetting
)
การตั้งค่าความปลอดภัยที่ใช้กับคำขอ
การแสดง JSON |
---|
{ "rating": { object ( |