ปลายทางของโมเดลช่วยให้คุณแสดงรายการโมเดลที่มีอยู่โดยใช้โปรแกรม และดึงข้อมูลเมตาแบบขยาย เช่น ฟังก์ชันการทำงานที่รองรับและการกำหนดขนาดหน้าต่างบริบท อ่านเพิ่มเติมในคู่มือเกี่ยวกับโมเดล
เมธอด: models.get
รับข้อมูลเกี่ยวกับ Model
ที่เฉพาะเจาะจง เช่น หมายเลขเวอร์ชัน ขีดจํากัดโทเค็น พารามิเตอร์ และข้อมูลเมตาอื่นๆ ดูข้อมูลโมเดลโดยละเอียดได้ในคำแนะนำเกี่ยวกับโมเดล Gemini
ปลายทาง
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
พารามิเตอร์เส้นทาง
name
string
ต้องระบุ ชื่อทรัพยากรของโมเดล
ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list
แสดงผล
รูปแบบ: models/{model}
มีรูปแบบเป็น models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอต้องว่างเปล่า
ตัวอย่างคำขอ
Python
Go
เปลือกหอย
เนื้อหาการตอบกลับ
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ Model
เมธอด: models.list
แสดงรายการ Model
s ที่พร้อมใช้งานผ่าน Gemini API
ปลายทาง
gethttps: / /generativelanguage.googleapis.com /v1beta /models
พารามิเตอร์การค้นหา
pageSize
integer
จำนวนสูงสุดของ Models
ที่จะแสดง (ต่อหน้า)
หากไม่ระบุ ระบบจะแสดงผลโมเดล 50 รายการต่อหน้า วิธีนี้จะแสดงโมเดลสูงสุด 1, 000 รายการต่อหน้า แม้ว่าคุณจะส่ง pageSize ที่ใหญ่กว่าก็ตาม
pageToken
string
โทเค็นหน้าเว็บที่ได้รับจากการเรียกใช้ models.list
ก่อนหน้า
ระบุ pageToken
ที่ส่งคืนโดยคำขอหนึ่งเป็นอาร์กิวเมนต์ของคำขอถัดไปเพื่อดึงข้อมูลหน้าถัดไป
เมื่อแบ่งหน้า พารามิเตอร์อื่นๆ ทั้งหมดที่ระบุให้กับ models.list
ต้องตรงกับการเรียกที่ระบุโทเค็นหน้าเว็บ
เนื้อความของคำขอ
เนื้อหาของคำขอต้องว่างเปล่า
ตัวอย่างคำขอ
Python
Go
เปลือกหอย
เนื้อหาการตอบกลับ
การตอบกลับจาก ListModel
ที่มีรายการโมเดลแบบแบ่งหน้า
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
models[]
object (Model
)
โมเดลที่ส่งคืน
nextPageToken
string
โทเค็นซึ่งส่งเป็น pageToken
เพื่อเรียกข้อมูลหน้าถัดไปได้
หากไม่ระบุฟิลด์นี้ แสดงว่าไม่มีหน้าอื่นอีก
การแสดง JSON |
---|
{
"models": [
{
object ( |
ทรัพยากร REST: โมเดล
แหล่งข้อมูล: โมเดล
ข้อมูลเกี่ยวกับโมเดลภาษา Generative
name
string
ต้องระบุ ชื่อทรัพยากรของ Model
ดูค่าที่อนุญาตทั้งหมดได้ที่โมเดลย่อย
รูปแบบ: models/{model}
ที่มีรูปแบบการตั้งชื่อ {model}
ดังนี้
- "{baseModelId}-{version}"
ตัวอย่าง
models/gemini-1.5-flash-001
baseModelId
string
ต้องระบุ ชื่อของโมเดลพื้นฐาน ส่งชื่อนี้ไปยังคำขอการสร้าง
ตัวอย่าง
gemini-1.5-flash
version
string
ต้องระบุ หมายเลขเวอร์ชันของโมเดล
ซึ่งแสดงถึงเวอร์ชันหลัก (1.0
หรือ 1.5
)
displayName
string
ชื่อโมเดลที่ผู้ใช้อ่านได้ เช่น "Gemini 1.5 Flash"
ชื่อมีความยาวได้สูงสุด 128 อักขระและประกอบด้วยอักขระ UTF-8 ใดก็ได้
description
string
คำอธิบายสั้นๆ ของโมเดล
inputTokenLimit
integer
จำนวนโทเค็นอินพุตสูงสุดที่อนุญาตสำหรับโมเดลนี้
outputTokenLimit
integer
จำนวนโทเค็นเอาต์พุตสูงสุดที่พร้อมใช้งานสำหรับโมเดลนี้
supportedGenerationMethods[]
string
วิธีการสร้างที่โมเดลรองรับ
ชื่อเมธอด API ที่เกี่ยวข้องจะกำหนดเป็นสตริง Pascal Case เช่น generateMessage
และ generateContent
thinking
boolean
โมเดลรองรับการคิดหรือไม่
temperature
number
ควบคุมความสุ่มของเอาต์พุต
ค่าที่ใช้ได้อยู่ในช่วง [0.0,maxTemperature]
ค่าที่สูงขึ้นจะสร้างคำตอบที่หลากหลายมากขึ้น ขณะที่ค่าที่ใกล้เคียง 0.0
โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่น่าประหลาดใจน้อยลง ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล
maxTemperature
number
อุณหภูมิสูงสุดที่โมเดลนี้ใช้ได้
topP
number
สำหรับการสุ่มตัวอย่าง Nucleus
การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดซึ่งมีผลรวมความน่าจะเป็นอย่างน้อย topP
ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล
topK
integer
สำหรับการสุ่มตัวอย่าง Top-k
การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopK
ความน่าจะเป็นสูงสุด ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล หากว่างเปล่า แสดงว่าโมเดลไม่ได้ใช้การสุ่มตัวอย่างแบบ Top-K และไม่อนุญาตให้ใช้ topK
เป็นพารามิเตอร์การสร้าง
การแสดง JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |