เมธอด: models.generateText
สร้างคำตอบจากโมเดลเมื่อได้รับข้อความอินพุต
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
หรือ TunedModel
ที่จะใช้ในการสร้างข้อความที่สมบูรณ์ ตัวอย่าง: models/text-bison-001 tunedModels/sentence-translator-u3b7m โดยจะอยู่ในรูปแบบ models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ป้อนให้กับโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะสร้างการตอบกลับ TextCompletion ที่คาดการณ์ว่าเป็นการเติมข้อความที่ป้อน
safetySettings[]
object (SafetySetting
)
ไม่บังคับ รายการSafetySetting
อินสแตนซ์ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย
ซึ่งจะมีผลบังคับใช้กับ GenerateTextRequest.prompt
และ GenerateTextResponse.candidates
ไม่ควรมีการตั้งค่ามากกว่า 1 รายการสำหรับSafetyCategory
แต่ละประเภท API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่กำหนดโดยการตั้งค่าเหล่านี้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับแต่ละรายการที่SafetyCategory
ระบุไว้ใน safetySettings หากไม่มี SafetySetting
สำหรับ SafetyCategory
ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น ระบบรองรับหมวดหมู่ที่เป็นอันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS ในบริการข้อความ
stopSequences[]
string
ชุดลำดับอักขระ (สูงสุด 5 รายการ) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดที่ลำดับหยุดแรกที่ปรากฏ ระบบจะไม่รวมลำดับการหยุดเป็นส่วนหนึ่งของคำตอบ
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature
ของ Model
ที่แสดงผลโดยฟังก์ชัน getModel
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะสร้างคำตอบที่หลากหลายและสร้างสรรค์มากขึ้น ในขณะที่ค่าที่ใกล้เคียงกับ 0.0 โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่ตรงไปตรงมามากขึ้น
candidateCount
integer
ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล
ค่านี้ต้องอยู่ระหว่าง [1, 8] (รวมค่าแรกและค่าสุดท้าย) หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น 1
maxOutputTokens
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในคำตอบ
หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ค่าเริ่มต้นเป็น outputTokenLimit ที่ระบุไว้ในข้อกำหนด Model
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง
โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส
ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กำหนด เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุด การสุ่มตัวอย่าง Top-k จะจำกัดจำนวนโทเค็นสูงสุดที่จะพิจารณาโดยตรง ในขณะที่การสุ่มตัวอย่างนิวเคลียสจะจำกัดจำนวนโทเค็นตามความน่าจะเป็นสะสม
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p
ของ Model
ที่แสดงผลโดยฟังก์ชัน getModel
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง
โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopK
ความน่าจะเป็นสูงสุด ค่าเริ่มต้นคือ 40
หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k
ของ Model
ที่แสดงผลโดยฟังก์ชัน getModel
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse
เมธอด: models.countTextTokens
เรียกใช้โทเค็นไนเซอร์ของโมเดลในข้อความและแสดงผลจำนวนโทเค็น
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะใช้เป็นรหัสเพื่อให้โมเดลใช้
ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list
แสดงผล
รูปแบบ: models/{model}
มีรูปแบบเป็น models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (TextPrompt
)
ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ป้อนให้กับโมเดลเป็นพรอมต์
เนื้อหาการตอบกลับ
คำตอบจาก models.countTextTokens
โดยจะแสดง tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จำนวนโทเค็นที่โทเค็น model
โทเค็น prompt
เป็นค่าที่ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: models.generateMessage
สร้างคำตอบจากโมเดลเมื่อได้รับอินพุต MessagePrompt
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของโมเดลที่จะใช้
รูปแบบ: name=models/{model}
ซึ่งจะอยู่ในรูปแบบ models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ อินพุตข้อความที่มีโครงสร้างซึ่งป้อนให้กับโมเดลเป็นพรอมต์
เมื่อได้รับพรอมต์ โมเดลจะแสดงข้อความที่คาดการณ์ว่าจะเป็นข้อความถัดไปในการสนทนา
temperature
number
ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต
ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0]
ค่าที่ใกล้เคียงกับ 1.0
จะสร้างคำตอบที่หลากหลายมากขึ้น ในขณะที่ค่าที่ใกล้เคียงกับ 0.0
โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่น่าประหลาดใจน้อยลง
candidateCount
integer
ไม่บังคับ จำนวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดงผล
ค่านี้ต้องอยู่ระหว่าง [1, 8]
โดยรวม หากไม่ได้ตั้งค่าไว้ ระบบจะใช้ 1
เป็นค่าเริ่มต้น
topP
number
ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง
โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส
การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดซึ่งมีผลรวมความน่าจะเป็นอย่างน้อย topP
topK
integer
ไม่บังคับ จำนวนโทเค็นสูงสุดที่ต้องพิจารณาเมื่อทำการสุ่มตัวอย่าง
โมเดลใช้การรวมการสุ่มตัวอย่าง Top-k และนิวเคลียส
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopK
ความน่าจะเป็นสูงสุด
เนื้อหาการตอบกลับ
คำตอบจากโมเดล
ซึ่งรวมถึงข้อความของผู้สมัครและประวัติการสนทนาในรูปแบบของข้อความที่เรียงตามลำดับเวลา
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
candidates[]
object (Message
)
ข้อความตอบกลับของผู้สมัครจากโมเดล
messages[]
object (Message
)
ประวัติการสนทนาที่โมเดลใช้
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และคำตอบ
ซึ่งจะระบุ SafetyCategory
ที่บล็อกผู้สมัครจากการตอบกลับนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น
การแสดง JSON |
---|
{ "candidates": [ { object ( |
เมธอด: models.countMessageTokens
เรียกใช้โทเค็นไนเซอร์ของโมเดลในสตริงและแสดงผลจำนวนโทเค็น
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะใช้เป็นรหัสเพื่อให้โมเดลใช้
ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list
แสดงผล
รูปแบบ: models/{model}
มีรูปแบบเป็น models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
prompt
object (MessagePrompt
)
ต้องระบุ พรอมต์ที่จะแสดงจำนวนโทเค็น
เนื้อหาการตอบกลับ
คำตอบจาก models.countMessageTokens
โดยจะแสดง tokenCount
ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
tokenCount
integer
จำนวนโทเค็นที่โทเค็น model
โทเค็น prompt
เป็นค่าที่ไม่เป็นลบเสมอ
การแสดง JSON |
---|
{ "tokenCount": integer } |
เมธอด: models.embedText
สร้างการฝังจากโมเดลเมื่อได้รับข้อความอินพุต
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} ซึ่งจะอยู่ในรูปแบบ models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
text
string
ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding
เมธอด: models.batchEmbedText
สร้างการฝังหลายรายการจากโมเดลโดยใช้ข้อความอินพุตในการเรียกแบบซิงโครนัส
ปลายทาง
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อของ Model
ที่จะใช้ในการสร้างการฝัง ตัวอย่าง: models/embedding-gecko-001 โดยจะอยู่ในรูปแบบ models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
texts[]
string
ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding ปัจจุบันจำกัดไว้ที่ 100 ข้อความ หากเกินกว่านี้ ระบบจะแสดงข้อผิดพลาด
requests[]
object (EmbedTextRequest
)
ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่าได้เพียง texts
หรือ requests
อย่างใดอย่างหนึ่งเท่านั้น
เนื้อหาการตอบกลับ
การตอบกลับ EmbedTextRequest
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
embeddings[]
object (Embedding
)
เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความอินพุต
การแสดง JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
ขอรับการฝังข้อความจากโมเดล
model
string
ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}
text
string
ไม่บังคับ ข้อความอินพุตแบบอิสระที่โมเดลจะเปลี่ยนเป็น Embedding
การแสดง JSON |
---|
{ "model": string, "text": string } |
ContentFilter
ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคำขอเดียว
ContentFilter มีเหตุผลและสตริงเสริมที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล
reason
enum (BlockedReason
)
เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ
message
string
สตริงที่อธิบายลักษณะการกรองโดยละเอียด
การแสดง JSON |
---|
{
"reason": enum ( |
BlockedReason
รายการเหตุผลที่ระบบอาจบล็อกเนื้อหา
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ไม่ได้ระบุเหตุผลที่ถูกบล็อก |
SAFETY |
การตั้งค่าความปลอดภัยบล็อกเนื้อหา |
OTHER |
เนื้อหาถูกบล็อก แต่ไม่ได้ระบุเหตุผล |
การฝัง
รายการของจำนวนทศนิยมที่แสดงการฝัง
value[]
number
ค่าการฝัง
การแสดง JSON |
---|
{ "value": [ number ] } |
ข้อความ
หน่วยพื้นฐานของข้อความที่มีโครงสร้าง
Message
ประกอบด้วย author
และcontent
ของ Message
author
ใช้เพื่อติดแท็กข้อความเมื่อป้อนข้อความลงในโมเดล
content
string
ต้องระบุ เนื้อหาข้อความของ Message
ที่มีโครงสร้าง
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับcontent
ที่โมเดลสร้างขึ้นMessage
หาก Message
นี้สร้างขึ้นเป็นเอาต์พุตจากโมเดล ระบบอาจป้อนข้อมูลการระบุแหล่งที่มาสำหรับข้อความใดๆ ที่รวมอยู่ใน content
ลงในช่องนี้ ฟิลด์นี้ใช้ในเอาต์พุตเท่านั้น
การแสดง JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
ข้อความอินพุตที่มีโครงสร้างทั้งหมดจะส่งไปยังโมเดลเป็นพรอมต์
MessagePrompt
ประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความอินพุตของผู้ใช้/เอาต์พุตของโมเดลที่เตรียมโมเดลให้ตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความที่แสดงถึงการสนทนาสลับกันระหว่างผู้ใช้กับโมเดล
context
string
ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่ออ้างอิงคำตอบ
หากไม่ว่างเปล่า ระบบจะส่ง context
นี้ไปยังโมเดลก่อน examples
และ messages
เมื่อใช้ context
โปรดระบุในคำขอทุกครั้งเพื่อรักษาความต่อเนื่อง
ฟิลด์นี้อาจเป็นคำอธิบายของพรอมต์ที่คุณป้อนให้กับโมเดลเพื่อช่วยให้บริบทและเป็นแนวทางในการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "เมื่อได้รับข้อความ ให้จัดประเภทความรู้สึกเป็นมีความสุข เศร้า หรือเป็นกลาง"
ข้อมูลใดก็ตามที่รวมอยู่ในช่องนี้จะมีลำดับความสำคัญเหนือกว่าประวัติข้อความ หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดลและระบบตัดคำขออินพุต
examples[]
object (Example
)
ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง
ซึ่งรวมถึงอินพุตของผู้ใช้และการตอบกลับที่โมเดลควรเลียนแบบ
examples
เหล่านี้จะได้รับการปฏิบัติเช่นเดียวกับข้อความการสนทนา ยกเว้นว่าจะมีลำดับความสำคัญเหนือประวัติใน messages
: หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดล ระบบจะตัดอินพุต ระบบจะนำรายการออกจาก messages
ก่อน examples
messages[]
object (Message
)
ต้องระบุ สแนปชอตของประวัติการสนทนาล่าสุดที่จัดเรียงตามลำดับเวลา
โดยผู้เขียน 2 คนจะสลับกันเขียน
หากขนาดอินพุตทั้งหมดเกิน inputTokenLimit
ของโมเดล ระบบจะตัดอินพุต โดยจะนำรายการที่เก่าที่สุดออกจาก messages
ตัวอย่าง
GenerateTextResponse
คำตอบจากโมเดล รวมถึงการเติมข้อความที่เป็นไปได้
candidates[]
object (TextCompletion
)
คำตอบที่เป็นตัวเลือกจากโมเดล
filters[]
object (ContentFilter
)
ชุดข้อมูลเมตาการกรองเนื้อหาสำหรับข้อความพรอมต์และคำตอบ
ซึ่งจะระบุ SafetyCategory
ที่บล็อกผู้สมัครจากการตอบกลับนี้ HarmProbability
ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ซึ่งแสดงถึงการเปลี่ยนแปลงที่เล็กที่สุดใน SafetySettings
ที่จำเป็นต่อการเลิกบล็อกการตอบกลับอย่างน้อย 1 รายการ
SafetySettings
ในคำขอ (หรือ SafetySettings
เริ่มต้นของ API) จะกำหนดค่าการบล็อก
safetyFeedback[]
object (SafetyFeedback
)
แสดงความคิดเห็นด้านความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา
การแสดง JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
ข้อความเอาต์พุตที่โมเดลแสดงผล
output
string
เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งส่งคืนจากโมเดล
safetyRatings[]
object (SafetyRating
)
คะแนนความปลอดภัยของคำตอบ
มีการจัดประเภทได้สูงสุด 1 รายการต่อหมวดหมู่
citationMetadata
object (CitationMetadata
)
เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับoutput
ที่โมเดลสร้างขึ้นTextCompletion
ช่องนี้อาจมีข้อมูลการระบุแหล่งที่มาสำหรับข้อความใดๆ ที่รวมอยู่ใน output
การแสดง JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด
ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือการตอบกลับถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีสำหรับ HarmCategory บางรายการ SafetyFeedback แต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คำขอใช้ รวมถึง HarmProbability ต่ำสุดที่ควรอนุญาตเพื่อแสดงผลลัพธ์
rating
object (SafetyRating
)
คะแนนความปลอดภัยที่ประเมินจากเนื้อหา
setting
object (SafetySetting
)
การตั้งค่าความปลอดภัยที่ใช้กับคำขอ
การแสดง JSON |
---|
{ "rating": { object ( |