Models

ปลายทางของโมเดลเป็นวิธีที่คุณสามารถแสดงรายการโมเดลที่ใช้ได้แบบเป็นโปรแกรม และดึงข้อมูลเมตาเพิ่มเติม เช่น ฟังก์ชันการทำงานที่รองรับและการปรับขนาดกรอบบริบท อ่านเพิ่มเติมในคู่มือโมเดล

เมธอด: collections.get

รับข้อมูลเกี่ยวกับ Model ที่เฉพาะเจาะจง เช่น หมายเลขเวอร์ชัน ขีดจํากัดโทเค็น พารามิเตอร์ และข้อมูลเมตาอื่นๆ ดูข้อมูลโดยละเอียดเกี่ยวกับรุ่นได้ในคู่มือรุ่นของ Gemini

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

พารามิเตอร์เส้นทาง

name string

ต้องระบุ ชื่อแหล่งข้อมูลของโมเดล

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ Model

เมธอด: model.list

แสดงรายการ Model ที่พร้อมใช้งานผ่าน Gemini API

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/models

พารามิเตอร์การค้นหา

pageSize integer

จํานวน Models สูงสุดที่จะแสดง (ต่อหน้า)

หากไม่ระบุ ระบบจะแสดงผลโมเดล 50 รายการต่อหน้า วิธีนี้จะแสดงผลโมเดลสูงสุด 1,000 รายการต่อหน้า แม้ว่าคุณจะส่ง pageSize ที่ใหญ่กว่าก็ตาม

pageToken string

โทเค็นหน้าเว็บที่ได้รับจากการเรียกใช้ models.list ก่อนหน้านี้

ระบุ pageToken ที่แสดงผลโดยคำขอหนึ่งเป็นอาร์กิวเมนต์สำหรับคำขอถัดไปเพื่อดึงข้อมูลหน้าถัดไป

เมื่อแบ่งหน้าเว็บ พารามิเตอร์อื่นๆ ทั้งหมดที่ระบุให้กับ models.list ต้องตรงกับการเรียกที่ให้โทเค็นหน้าเว็บ

เนื้อหาของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

เนื้อหาการตอบกลับ

การตอบกลับจาก ListModel ที่มีรายการโมเดลแบบแบ่งหน้า

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ช่อง
models[] object (Model)

โมเดลที่แสดงผล

nextPageToken string

โทเค็นซึ่งสามารถส่งเป็น pageToken เพื่อเรียกข้อมูลหน้าถัดไป

หากเว้นช่องนี้ไว้ จะไม่มีหน้าเพิ่มเติม

การแสดง JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

ทรัพยากร REST: models

แหล่งข้อมูล: โมเดล

ข้อมูลเกี่ยวกับโมเดลภาษา Generative

ช่อง
name string

ต้องระบุ ชื่อทรัพยากรของ Model ดูค่าที่อนุญาตทั้งหมดได้ที่ตัวแปรของโมเดล

รูปแบบ: models/{model} ที่มีรูปแบบการตั้งชื่อ {model} ดังนี้

  • "{baseModelId}-{version}"

ตัวอย่าง

  • models/gemini-1.5-flash-001
baseModelId string

ต้องระบุ ชื่อของโมเดลฐาน ส่งต่อค่านี้ไปยังคำขอสร้าง

ตัวอย่าง

  • gemini-1.5-flash
version string

ต้องระบุ หมายเลขเวอร์ชันของโมเดล

ค่านี้แสดงถึงเวอร์ชันหลัก (1.0 หรือ 1.5)

displayName string

ชื่อรุ่นที่ผู้ใช้อ่านได้ เช่น "Gemini 1.5 Flash"

ชื่อมีความยาวได้สูงสุด 128 อักขระและประกอบด้วยอักขระ UTF-8 ใดก็ได้

description string

คำอธิบายสั้นๆ ของโมเดล

inputTokenLimit integer

จำนวนโทเค็นอินพุตสูงสุดที่อนุญาตสําหรับโมเดลนี้

outputTokenLimit integer

จำนวนโทเค็นเอาต์พุตสูงสุดที่ใช้ได้กับโมเดลนี้

supportedGenerationMethods[] string

วิธีการสร้างที่โมเดลรองรับ

ชื่อเมธอด API ที่เกี่ยวข้องจะกำหนดเป็นสตริงตัวพิมพ์เล็ก/ใหญ่แบบ Pascal เช่น generateMessage และ generateContent

temperature number

ควบคุมความสุ่มของเอาต์พุต

ค่าในช่วงได้เกินกว่า [0.0,maxTemperature] ค่าที่สูงขึ้นจะทำให้เกิดคำตอบที่หลากหลายมากขึ้น ขณะที่ค่าที่ใกล้เคียงกับ 0.0 มักจะส่งผลให้โมเดลให้คำตอบที่น่าประหลาดใจน้อยลง ค่านี้จะระบุค่าเริ่มต้นที่จะใช้โดยแบ็กเอนด์ขณะทำการเรียกใช้โมเดล

maxTemperature number

อุณหภูมิสูงสุดที่รุ่นนี้ใช้ได้

topP number

สำหรับการสุ่มตัวอย่างนิวเคลียส

การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดที่มีผลรวมความน่าจะเป็นอย่างน้อย topP ค่านี้จะระบุค่าเริ่มต้นที่จะใช้โดยแบ็กเอนด์ขณะทำการเรียกใช้โมเดล

topK integer

สําหรับการสุ่มตัวอย่าง Top-k

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่านี้จะระบุค่าเริ่มต้นที่จะใช้โดยแบ็กเอนด์ขณะทำการเรียกใช้โมเดล หากเป็นค่าว่าง แสดงว่าโมเดลไม่ได้ใช้การสุ่มตัวอย่าง Top-K และระบบไม่อนุญาตให้ใช้ topK เป็นพารามิเตอร์การสร้าง

การแสดง JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}