Method: models.generateText

สร้างการตอบสนองจากโมเดลตามข้อความอินพุต

คำขอ HTTP

POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

พารามิเตอร์
model

string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่จะใช้ในการสร้างการเสร็จสมบูรณ์ ตัวอย่าง: Model/text-bison-001หากมีการปรับโมเดล/sentence-translator-u3b7m

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

การแสดง JSON
{
  "prompt": {
    object (TextPrompt)
  },
  "safetySettings": [
    {
      object (SafetySetting)
    }
  ],
  "stopSequences": [
    string
  ],
  "temperature": number,
  "candidateCount": integer,
  "maxOutputTokens": integer,
  "topP": number,
  "topK": integer
}
ช่อง
prompt

object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่กําหนดให้กับโมเดลเป็นพรอมต์

เมื่อมีพรอมต์ โมเดลจะสร้างคำตอบ TextCompletion ที่คาดการณ์ว่าเป็นการเสร็จสิ้นข้อความที่ป้อน

safetySettings[]

object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ของ SafetySetting ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ที่จะบังคับใช้ใน GenerateTextRequest.prompt และ GenerateTextResponse.candidates ไม่ควรมีการตั้งค่ามากกว่า 1 รายการสําหรับ SafetyCategory แต่ละประเภท API จะบล็อกพรอมต์และคำตอบที่ไม่ตรงตามเกณฑ์ที่การตั้งค่าเหล่านี้กำหนดไว้ รายการนี้ลบล้างการตั้งค่าเริ่มต้นของ SafetyCategory แต่ละรายการที่ระบุใน safetySettings หากไม่มี SafetySetting สําหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสําหรับหมวดหมู่นั้น หมวดหมู่ที่เป็นอันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS ใช้ได้ในบริการข้อความ

stopSequences[]

string

ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดที่การปรากฏครั้งแรกของลำดับการหยุด ลำดับการหยุดจะไม่รวมเป็นส่วนหนึ่งของคำตอบ

temperature

number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.temperature ของ Model ที่แสดงผลฟังก์ชัน getModel

ค่าโดยรวมมีได้ตั้งแต่ [0.0,1.0] ค่าที่ใกล้เคียงกับ 1.0 จะทำให้คำตอบมีความหลากหลายและสร้างสรรค์กว่า ส่วนค่าที่ใกล้กับ 0.0 มากกว่าจะส่งผลให้โมเดลได้รับคำตอบที่ตรงไปตรงมามากกว่า

candidateCount

integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นเพื่อส่งคืน

ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ 1 เป็นค่าเริ่มต้น

maxOutputTokens

integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมอยู่ในตัวเลือก

หากไม่ได้ตั้งค่า ค่าเริ่มต้นจะเป็นเอาต์พุตTokenLimit ที่ระบุไว้ในข้อกำหนด Model

topP

number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะต้องพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และนิวเคลียสรวมกัน

โทเค็นจะจัดเรียงตามความน่าจะเป็นที่กำหนด เพื่อให้มีการพิจารณาเฉพาะโทเค็นที่เป็นไปได้มากที่สุด การสุ่มตัวอย่างแบบท็อป-K จะจำกัดจํานวนโทเค็นสูงสุดที่ต้องพิจารณาโดยตรง ส่วนการสุ่มตัวอย่างแบบนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_p ของ Model ที่แสดงผลฟังก์ชัน getModel

topK

integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่ต้องพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และนิวเคลียสรวมกัน

การสุ่มตัวอย่างในตำแหน่งบนสุดจะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามโมเดล โปรดดูแอตทริบิวต์ Model.top_k ของ Model ที่แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

ขอบเขตการให้สิทธิ์

ต้องมีขอบเขต OAuth อย่างใดอย่างหนึ่งต่อไปนี้

  • https://www.googleapis.com/auth/generative-language
  • https://www.googleapis.com/auth/generative-language.tuning
  • https://www.googleapis.com/auth/generative-language.tuning.readonly
  • https://www.googleapis.com/auth/generative-language.retriever
  • https://www.googleapis.com/auth/generative-language.retriever.readonly

ดูข้อมูลเพิ่มเติมได้ที่ภาพรวมการตรวจสอบสิทธิ์