PaLM (decommissioned)

เมธอด: model.generateText

สร้างการตอบสนองจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่ใช้เพื่อสร้างการดำเนินการให้เสร็จสมบูรณ์ ตัวอย่าง: model/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบแบบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.promptและGenerateTextResponse.candidates ประเภท SafetyCategory แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature ของ Model แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล

ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p ของ Model แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k ของ Model แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

เมธอด: models.countTextTokens

เรียกใช้ตัวแยกวิเคราะห์ของโมเดลในข้อความและแสดงผลจํานวนโทเค็น

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} จะอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countTextTokens

โดยจะแสดงผล tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
tokenCount integer

จํานวนโทเค็นที่ model แยก prompt

ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

เมธอด: models.generateMessage

สร้างคำตอบจากโมเดลที่ได้รับอินพุต MessagePrompt

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของโมเดลที่จะใช้

รูปแบบ: name=models/{model} โดยจะมีรูปแบบเป็น models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (MessagePrompt)

ต้องระบุ อินพุตข้อความแบบมีโครงสร้างที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อมีพรอมต์ โมเดลจะแสดงผลสิ่งที่คาดการณ์ไว้ว่าเป็นข้อความถัดไปในการสนทนา

temperature number

ไม่บังคับ ควบคุมการสุ่มของเอาต์พุต

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ขึ้นไป ค่าที่ใกล้กับ 1.0 จะสร้างคำตอบที่หลากหลายมากขึ้น ส่วนค่าที่ใกล้กับ 0.0 มักจะให้คำตอบที่ไม่น่าแปลกใจจากโมเดลน้อยลง

candidateCount integer

ไม่บังคับ จํานวนข้อความตอบกลับที่สร้างขึ้นที่จะแสดง

ค่านี้ต้องอยู่ระหว่าง [1, 8] หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดที่มีผลรวมความน่าจะเป็นอย่างน้อย topP

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ

เนื้อหาการตอบกลับ

การตอบกลับจากโมเดล

ซึ่งรวมถึงข้อความที่เป็นไปได้และประวัติการสนทนาในรูปแบบข้อความที่จัดเรียงตามลำดับเวลา

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
candidates[] object (Message)

ข้อความตอบกลับของผู้สมัครจากโมเดล

messages[] object (Message)

ประวัติการสนทนาที่โมเดลใช้

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ

ข้อมูลนี้ระบุSafetyCategoryที่บล็อกคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น

การแสดง JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

เมธอด: collections.countMessageTokens

เรียกใช้ตัวแยกวิเคราะห์สตริงของโมเดลในสตริงและแสดงผลจํานวนโทเค็น

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะเป็นรหัสให้โมเดลใช้งาน

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} จะอยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (MessagePrompt)

ต้องระบุ ข้อความแจ้งที่ระบุจำนวนโทเค็นที่จะแสดงผล

เนื้อหาการตอบกลับ

การตอบกลับจาก models.countMessageTokens

โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
tokenCount integer

จํานวนโทเค็นที่ model แยก prompt

ไม่เป็นลบเสมอ

การแสดง JSON
{
  "tokenCount": integer
}

วิธีการ: models.embedText

สร้างการฝังจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model} โดยใช้รูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ฟิลด์
text string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embedding object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน

การแสดง JSON
{
  "embedding": {
    object (Embedding)
  }
}

เมธอด: collections.batchEmbedText

สร้างการฝังหลายรายการจากโมเดลที่ระบุข้อความอินพุตในการเรียกใช้แบบซิงค์

ปลายทาง

โพสต์ https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model ที่จะใช้สําหรับสร้างการฝัง ตัวอย่างเช่น models/embedding-gecko-001 โดยจะมีรูปแบบเป็น models/{model}

เนื้อหาของคำขอ

เนื้อความของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
texts[] string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง ขีดจำกัดปัจจุบันคือ 100 ข้อความ หากเกินจำนวนนี้ ระบบจะแสดงข้อผิดพลาด

requests[] object (EmbedTextRequest)

ไม่บังคับ ฝังคำขอสำหรับกลุ่ม ตั้งค่า texts หรือ requests ได้เพียง 1 รายการเท่านั้น

เนื้อหาการตอบกลับ

การตอบกลับ EmbedTextRequest

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
embeddings[] object (Embedding)

เอาต์พุตเท่านั้น การฝังที่สร้างจากข้อความที่ป้อน

การแสดง JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

คำขอรับการฝังข้อความจากโมเดล

ฟิลด์
model string

ต้องระบุ ชื่อโมเดลที่จะใช้กับรูปแบบ model=models/{model}

text string

ไม่บังคับ ข้อความอินพุตรูปแบบอิสระที่โมเดลจะเปลี่ยนเป็นการฝัง

การแสดง JSON
{
  "model": string,
  "text": string
}

เมธอด: TunModels.generateText

สร้างการตอบกลับจากโมเดลที่ได้รับข้อความอินพุต

ปลายทาง

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

พารามิเตอร์เส้นทาง

model string

ต้องระบุ ชื่อของ Model หรือ TunedModel ที่จะใช้สําหรับสร้างการทํางานให้เสร็จสมบูรณ์ ตัวอย่าง: โมเดล/text-bison-001tuneModels/sentence-translator-u3b7m อยู่ในรูปแบบ tunedModels/{tunedmodel}

เนื้อหาของคำขอ

เนื้อหาของคำขอมีข้อมูลที่มีโครงสร้างต่อไปนี้

ช่อง
prompt object (TextPrompt)

ต้องระบุ ข้อความอินพุตรูปแบบอิสระที่ส่งไปยังโมเดลเป็นพรอมต์

เมื่อได้รับพรอมต์ โมเดลจะสร้างคำตอบแบบ TextCompletion ที่คาดการณ์ว่าจะเป็นข้อความที่สมบูรณ์

safetySettings[] object (SafetySetting)

ไม่บังคับ รายการอินสแตนซ์ SafetySetting ที่ไม่ซ้ำกันสำหรับการบล็อกเนื้อหาที่ไม่ปลอดภัย

ซึ่งจะมีผลบังคับใช้ในGenerateTextRequest.promptและGenerateTextResponse.candidates ประเภท SafetyCategory แต่ละประเภทไม่ควรมีการตั้งค่ามากกว่า 1 รายการ API จะบล็อกพรอมต์และการตอบกลับที่ไม่เป็นไปตามเกณฑ์ที่ตั้งค่าไว้ รายการนี้จะลบล้างการตั้งค่าเริ่มต้นสำหรับ SafetyCategory แต่ละรายการที่ระบุไว้ใน safetySettings หากไม่มี SafetySetting สำหรับ SafetyCategory ที่ระบุในรายการ API จะใช้การตั้งค่าความปลอดภัยเริ่มต้นสำหรับหมวดหมู่นั้น บริการข้อความรองรับหมวดหมู่อันตราย HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS

stopSequences[] string

ชุดของลำดับอักขระ (สูงสุด 5 ตัว) ที่จะหยุดการสร้างเอาต์พุต หากระบุไว้ API จะหยุดเมื่อปรากฏขึ้นครั้งแรกของลําดับการหยุด ลำดับการหยุดจะไม่รวมอยู่ในคำตอบ

temperature number

ไม่บังคับ ควบคุมความสุ่มของเอาต์พุต หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.temperature ของ Model แสดงผลฟังก์ชัน getModel

ค่าที่ใช้ได้อยู่ในช่วง [0.0,1.0] ค่าที่เข้าใกล้ 1.0 จะทำให้ได้คำตอบที่หลากหลายและสร้างสรรค์มากกว่า ขณะที่ค่าที่เข้าใกล้ 0.0 มักจะทำให้ได้คำตอบที่ตรงไปตรงมามากขึ้นจากโมเดล

candidateCount integer

ไม่บังคับ จำนวนคำตอบที่สร้างขึ้นที่จะแสดงผล

ค่านี้จะต้องอยู่ระหว่าง [1, 8] เท่านั้น หากไม่ได้ตั้งค่า ระบบจะใช้ค่าเริ่มต้นเป็น 1

maxOutputTokens integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะรวมไว้ในผู้สมัคร

หากไม่ได้ตั้งค่าไว้ ค่าเริ่มต้นจะเป็น outputTokenLimit ที่ระบุไว้ในข้อกําหนดของ Model

topP number

ไม่บังคับ ความน่าจะเป็นสะสมสูงสุดของโทเค็นที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

ระบบจะจัดเรียงโทเค็นตามความน่าจะเป็นที่กําหนดไว้เพื่อให้พิจารณาเฉพาะโทเค็นที่มีแนวโน้มมากที่สุดเท่านั้น การสุ่มตัวอย่างแบบ Top-k จะจำกัดจํานวนโทเค็นสูงสุดที่จะต้องพิจารณาโดยตรง ขณะที่การสุ่มตัวอย่างนิวเคลียสจะจํากัดจํานวนโทเค็นตามความน่าจะเป็นสะสม

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_p ของ Model แสดงผลฟังก์ชัน getModel

topK integer

ไม่บังคับ จำนวนโทเค็นสูงสุดที่จะพิจารณาเมื่อสุ่มตัวอย่าง

โมเดลนี้ใช้การสุ่มตัวอย่าง Top-k และการสุ่มตัวอย่าง Nucleus รวมกัน

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่าเริ่มต้นคือ 40

หมายเหตุ: ค่าเริ่มต้นจะแตกต่างกันไปตามรุ่น โปรดดูแอตทริบิวต์ Model.top_k ของ Model แสดงผลฟังก์ชัน getModel

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ GenerateTextResponse

ContentFilter

ข้อมูลเมตาการกรองเนื้อหาที่เชื่อมโยงกับการประมวลผลคําขอเดียว

ContentFilter ประกอบด้วยเหตุผลและสตริงสนับสนุนที่ไม่บังคับ โดยอาจไม่ได้ระบุเหตุผล

ฟิลด์
reason enum (BlockedReason)

เหตุผลที่เนื้อหาถูกบล็อกระหว่างการประมวลผลคำขอ

message string

สตริงที่อธิบายลักษณะการกรองแบบละเอียดยิ่งขึ้น

การแสดง JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

รายการสาเหตุที่เนื้อหาอาจถูกบล็อก

Enum
BLOCKED_REASON_UNSPECIFIED ไม่ได้ระบุเหตุผลที่บล็อก
SAFETY การตั้งค่าความปลอดภัยบล็อกเนื้อหา
OTHER เนื้อหาถูกบล็อก แต่สาเหตุนี้ไม่จัดอยู่ในหมวดหมู่ใดๆ

การฝัง

รายการ Float ที่แสดงการฝัง

ช่อง
value[] number

ค่าที่ฝัง

การแสดง JSON
{
  "value": [
    number
  ]
}

ข้อความ

หน่วยฐานของข้อความที่มีโครงสร้าง

Message ประกอบด้วย author และ content ของ Message

author ใช้เพื่อติดแท็กข้อความเมื่อมีการป้อนข้อความไปยังโมเดลเป็นข้อความ

ฟิลด์
author string

ไม่บังคับ ผู้เขียนข้อความนี้

ซึ่งใช้เป็นคีย์สําหรับติดแท็กเนื้อหาของข้อความนี้เมื่อส่งไปยังโมเดลเป็นข้อความ

ผู้เขียนอาจเป็นสตริงที่เป็นตัวอักษรและตัวเลขคละกันใดก็ได้

content string

ต้องระบุ เนื้อหาข้อความของ Message ที่มีโครงสร้าง

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ content ที่โมเดลสร้างขึ้นใน Message นี้

หาก Message นี้สร้างขึ้นจากเอาต์พุตของโมเดล ช่องนี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาของข้อความที่รวมอยู่ใน content ช่องนี้ใช้กับเอาต์พุตเท่านั้น

การแสดง JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

ข้อความอินพุตที่มีโครงสร้างทั้งหมดที่ส่งไปยังโมเดลในรูปแบบพรอมต์

MessagePrompt ประกอบด้วยชุดฟิลด์ที่มีโครงสร้างซึ่งให้บริบทสำหรับการสนทนา ตัวอย่างคู่ข้อความเอาต์พุตของโมเดล/อินพุตของผู้ใช้ซึ่งเปิดให้โมเดลตอบสนองในรูปแบบต่างๆ และประวัติการสนทนาหรือรายการข้อความซึ่งแสดงการเปลี่ยนสลับการสนทนาระหว่างผู้ใช้กับโมเดล

ฟิลด์
context string

ไม่บังคับ ข้อความที่ควรระบุให้กับโมเดลก่อนเพื่อให้คำตอบแก่โมเดล

หากไม่ได้เป็นค่าว่าง ระบบจะส่ง context นี้ไปยังโมเดลก่อน examples และ messages เมื่อใช้ context อย่าลืมให้คำดังกล่าวกับทุกคำขอเพื่อรักษาความต่อเนื่อง

ช่องนี้อาจเป็นคำอธิบายพรอมต์สำหรับโมเดลเพื่อช่วยระบุบริบทและแนวทางการตอบกลับ ตัวอย่างเช่น "แปลวลีจากภาษาอังกฤษเป็นภาษาฝรั่งเศส" หรือ "จัดประเภทความรู้สึกเป็น "ดีใจ" "เศร้า" หรือ "กลางๆ" จากข้อความที่ระบุ

ทุกอย่างที่อยู่ในช่องนี้จะมีความสำคัญเหนือกว่าประวัติข้อความหากขนาดอินพุตทั้งหมดเกิน inputTokenLimit ของโมเดลและคำขออินพุตถูกตัดให้สั้นลง

examples[] object (Example)

ไม่บังคับ ตัวอย่างสิ่งที่โมเดลควรสร้าง

ซึ่งจะรวมทั้งอินพุตของผู้ใช้และคำตอบที่โมเดลควรจำลอง

ระบบจะดำเนินการกับ examples เหล่านี้เหมือนกับข้อความการสนทนา เว้นแต่ว่าจะมีความสำคัญเหนือประวัติใน messages: หากขนาดอินพุตรวมเกิน inputTokenLimit ของโมเดล ระบบจะตัดทอนอินพุต ระบบจะนำรายการออกจาก messages ก่อนวันที่ examples

messages[] object (Message)

ต้องระบุ ภาพรวมของประวัติการสนทนาล่าสุดจะจัดเรียงตามลำดับเวลา

สลับใช้ระหว่างผู้เขียน 2 คน

หากขนาดอินพุตรวมเกิน inputTokenLimit ของโมเดล อินพุตจะถูกตัดออก: รายการที่เก่าที่สุดจะถูกตัดออกจาก messages

การแสดง JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

ตัวอย่าง

ตัวอย่างอินพุต/เอาต์พุตที่ใช้เพื่อสั่งให้โมเดลทำงาน

ซึ่งจะแสดงให้เห็นว่าโมเดลควรตอบกลับหรือจัดรูปแบบการตอบกลับอย่างไร

ช่อง
input object (Message)

ต้องระบุ ตัวอย่างอินพุต Message จากผู้ใช้

output object (Message)

ต้องระบุ ตัวอย่างสิ่งที่โมเดลควรแสดงผลตามอินพุต

การแสดง JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

คำตอบจากโมเดล รวมถึงความสำเร็จของผู้สมัคร

ช่อง
candidates[] object (TextCompletion)

คำตอบที่เป็นไปได้จากโมเดล

filters[] object (ContentFilter)

ชุดข้อมูลเมตาการกรองเนื้อหาสําหรับพรอมต์และข้อความตอบกลับ

ข้อมูลนี้ระบุSafetyCategoryที่บล็อกคำตอบนี้ HarmProbability ต่ำสุดที่ทริกเกอร์การบล็อก และการตั้งค่า HarmThreshold สำหรับหมวดหมู่นั้น ค่านี้ระบุการเปลี่ยนแปลง SafetySettings น้อยที่สุดที่จำเป็นในการเลิกบล็อกคำตอบอย่างน้อย 1 รายการ

SafetySettings เป็นผู้กำหนดค่าการบล็อกในคำขอ (หรือ SafetySettings เริ่มต้นของ API)

safetyFeedback[] object (SafetyFeedback)

ส่งคืนความคิดเห็นเกี่ยวกับความปลอดภัยที่เกี่ยวข้องกับการกรองเนื้อหา

การแสดง JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

ข้อความเอาต์พุตที่ส่งคืนจากโมเดล

ช่อง
output string

เอาต์พุตเท่านั้น ข้อความที่สร้างขึ้นซึ่งแสดงผลจากโมเดล

safetyRatings[] object (SafetyRating)

คะแนนความปลอดภัยของคำตอบ

แต่ละหมวดหมู่มีการจัดประเภทได้ไม่เกิน 1 ประเภท

citationMetadata object (CitationMetadata)

เอาต์พุตเท่านั้น ข้อมูลการอ้างอิงสำหรับ output ที่สร้างขึ้นโดยโมเดลใน TextCompletion นี้

ฟิลด์นี้อาจมีการป้อนข้อมูลการระบุแหล่งที่มาสําหรับข้อความที่รวมอยู่ใน output

การแสดง JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

ความคิดเห็นด้านความปลอดภัยสำหรับคำขอทั้งหมด

ระบบจะป้อนข้อมูลในช่องนี้หากเนื้อหาในอินพุตและ/หรือคำตอบถูกบล็อกเนื่องจากการตั้งค่าความปลอดภัย SafetyFeedback อาจไม่มีอยู่ในหมวดหมู่อันตรายทุกหมวดหมู่ ความคิดเห็นเกี่ยวกับความปลอดภัยแต่ละรายการจะแสดงการตั้งค่าความปลอดภัยที่คำขอใช้ รวมถึงความน่าจะเป็นที่ต่ำที่สุดที่ควรได้รับอนุญาตเพื่อแสดงผลการค้นหา

ช่อง
rating object (SafetyRating)

คะแนนความปลอดภัยที่ประเมินจากเนื้อหา

setting object (SafetySetting)

การตั้งค่าความปลอดภัยที่ใช้กับคำขอ

การแสดง JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

ข้อความที่กำหนดให้โมเดลเป็นพรอมต์

โมเดลจะใช้ TextPrompt นี้เพื่อสร้างข้อความที่สมบูรณ์

ฟิลด์
text string

ต้องระบุ ข้อความพรอมต์

การแสดง JSON
{
  "text": string
}