Models

ปลายทางของโมเดลช่วยให้คุณแสดงรายการโมเดลที่มีอยู่โดยใช้โปรแกรม และดึงข้อมูลเมตาแบบขยาย เช่น ฟังก์ชันการทำงานที่รองรับและการกำหนดขนาดหน้าต่างบริบท อ่านเพิ่มเติมในคู่มือเกี่ยวกับโมเดล

เมธอด: models.get

รับข้อมูลเกี่ยวกับ Model ที่เฉพาะเจาะจง เช่น หมายเลขเวอร์ชัน ขีดจํากัดโทเค็น พารามิเตอร์ และข้อมูลเมตาอื่นๆ ดูข้อมูลโมเดลโดยละเอียดได้ในคำแนะนำเกี่ยวกับโมเดล Gemini

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

พารามิเตอร์เส้นทาง

name string

ต้องระบุ ชื่อทรัพยากรของโมเดล

ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list แสดงผล

รูปแบบ: models/{model} มีรูปแบบเป็น models/{model}

เนื้อความของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

from google import genai

client = genai.Client()
model_info = client.models.get(model="gemini-2.0-flash")
print(model_info)

Go

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}

modelInfo, err := client.Models.Get(ctx, "gemini-2.0-flash", nil)
if err != nil {
	log.Fatal(err)
}

fmt.Println(modelInfo)

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash?key=$GEMINI_API_KEY

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ Model

เมธอด: models.list

แสดงรายการ Models ที่พร้อมใช้งานผ่าน Gemini API

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/models

พารามิเตอร์การค้นหา

pageSize integer

จำนวนสูงสุดของ Models ที่จะแสดง (ต่อหน้า)

หากไม่ระบุ ระบบจะแสดงผลโมเดล 50 รายการต่อหน้า วิธีนี้จะแสดงโมเดลสูงสุด 1, 000 รายการต่อหน้า แม้ว่าคุณจะส่ง pageSize ที่ใหญ่กว่าก็ตาม

pageToken string

โทเค็นหน้าเว็บที่ได้รับจากการเรียกใช้ models.list ก่อนหน้า

ระบุ pageToken ที่ส่งคืนโดยคำขอหนึ่งเป็นอาร์กิวเมนต์ของคำขอถัดไปเพื่อดึงข้อมูลหน้าถัดไป

เมื่อแบ่งหน้า พารามิเตอร์อื่นๆ ทั้งหมดที่ระบุให้กับ models.list ต้องตรงกับการเรียกที่ระบุโทเค็นหน้าเว็บ

เนื้อความของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

from google import genai

client = genai.Client()

print("List of models that support generateContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "generateContent":
            print(m.name)

print("List of models that support embedContent:\n")
for m in client.models.list():
    for action in m.supported_actions:
        if action == "embedContent":
            print(m.name)

Go

ctx := context.Background()
client, err := genai.NewClient(ctx, &genai.ClientConfig{
	APIKey:  os.Getenv("GEMINI_API_KEY"),
	Backend: genai.BackendGeminiAPI,
})
if err != nil {
	log.Fatal(err)
}


// Retrieve the list of models.
models, err := client.Models.List(ctx, &genai.ListModelsConfig{})
if err != nil {
	log.Fatal(err)
}

fmt.Println("List of models that support generateContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "generateContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

fmt.Println("\nList of models that support embedContent:")
for _, m := range models.Items {
	for _, action := range m.SupportedActions {
		if action == "embedContent" {
			fmt.Println(m.Name)
			break
		}
	}
}

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GEMINI_API_KEY

เนื้อหาการตอบกลับ

การตอบกลับจาก ListModel ที่มีรายการโมเดลแบบแบ่งหน้า

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
models[] object (Model)

โมเดลที่ส่งคืน

nextPageToken string

โทเค็นซึ่งส่งเป็น pageToken เพื่อเรียกข้อมูลหน้าถัดไปได้

หากไม่ระบุฟิลด์นี้ แสดงว่าไม่มีหน้าอื่นอีก

การแสดง JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

ทรัพยากร REST: โมเดล

แหล่งข้อมูล: โมเดล

ข้อมูลเกี่ยวกับโมเดลภาษา Generative

ฟิลด์
name string

ต้องระบุ ชื่อทรัพยากรของ Model ดูค่าที่อนุญาตทั้งหมดได้ที่โมเดลย่อย

รูปแบบ: models/{model} ที่มีรูปแบบการตั้งชื่อ {model} ดังนี้

  • "{baseModelId}-{version}"

ตัวอย่าง

  • models/gemini-1.5-flash-001
baseModelId string

ต้องระบุ ชื่อของโมเดลพื้นฐาน ส่งชื่อนี้ไปยังคำขอการสร้าง

ตัวอย่าง

  • gemini-1.5-flash
version string

ต้องระบุ หมายเลขเวอร์ชันของโมเดล

ซึ่งแสดงถึงเวอร์ชันหลัก (1.0 หรือ 1.5)

displayName string

ชื่อโมเดลที่ผู้ใช้อ่านได้ เช่น "Gemini 1.5 Flash"

ชื่อมีความยาวได้สูงสุด 128 อักขระและประกอบด้วยอักขระ UTF-8 ใดก็ได้

description string

คำอธิบายสั้นๆ ของโมเดล

inputTokenLimit integer

จำนวนโทเค็นอินพุตสูงสุดที่อนุญาตสำหรับโมเดลนี้

outputTokenLimit integer

จำนวนโทเค็นเอาต์พุตสูงสุดที่พร้อมใช้งานสำหรับโมเดลนี้

supportedGenerationMethods[] string

วิธีการสร้างที่โมเดลรองรับ

ชื่อเมธอด API ที่เกี่ยวข้องจะกำหนดเป็นสตริง Pascal Case เช่น generateMessage และ generateContent

thinking boolean

โมเดลรองรับการคิดหรือไม่

temperature number

ควบคุมความสุ่มของเอาต์พุต

ค่าที่ใช้ได้อยู่ในช่วง [0.0,maxTemperature] ค่าที่สูงขึ้นจะสร้างคำตอบที่หลากหลายมากขึ้น ขณะที่ค่าที่ใกล้เคียง 0.0 โดยทั่วไปจะทำให้โมเดลสร้างคำตอบที่น่าประหลาดใจน้อยลง ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล

maxTemperature number

อุณหภูมิสูงสุดที่โมเดลนี้ใช้ได้

topP number

สำหรับการสุ่มตัวอย่าง Nucleus

การสุ่มตัวอย่างนิวเคลียสจะพิจารณาชุดโทเค็นที่เล็กที่สุดซึ่งมีผลรวมความน่าจะเป็นอย่างน้อย topP ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล

topK integer

สำหรับการสุ่มตัวอย่าง Top-k

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่มีtopKความน่าจะเป็นสูงสุด ค่านี้จะระบุค่าเริ่มต้นที่แบ็กเอนด์ใช้ขณะทำการเรียกไปยังโมเดล หากว่างเปล่า แสดงว่าโมเดลไม่ได้ใช้การสุ่มตัวอย่างแบบ Top-K และไม่อนุญาตให้ใช้ topK เป็นพารามิเตอร์การสร้าง

การแสดง JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "thinking": boolean,
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}