Models

ปลายทางของโมเดลเป็นวิธีที่คุณสามารถแสดงรายการโมเดลที่ใช้ได้แบบเป็นโปรแกรม และดึงข้อมูลเมตาเพิ่มเติม เช่น ฟังก์ชันการทำงานที่รองรับและการปรับขนาดกรอบบริบท อ่านเพิ่มเติมในคู่มือรูปแบบ

เมธอด: models.get

รับข้อมูลเกี่ยวกับ Model ที่เฉพาะเจาะจง เช่น หมายเลขเวอร์ชัน ขีดจํากัดโทเค็น พารามิเตอร์ และข้อมูลเมตาอื่นๆ ดูข้อมูลโดยละเอียดเกี่ยวกับรุ่นต่างๆ ได้ที่คู่มือรุ่นของ Gemini

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์เส้นทาง

name string

ต้องระบุ ชื่อแหล่งข้อมูลของโมเดล

ชื่อนี้ควรตรงกับชื่อโมเดลที่แสดงผลโดยเมธอด models.list

รูปแบบ: models/{model} อยู่ในรูปแบบ models/{model}

เนื้อหาของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

import google.generativeai as genai

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

เนื้อหาการตอบกลับ

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีอินสแตนซ์ Model

เมธอด: models.list

แสดงรายการ Model ที่พร้อมใช้งานผ่าน Gemini API

ปลายทาง

get https://generativelanguage.googleapis.com/v1beta/models

URL ใช้ไวยากรณ์การแปลง gRPC

พารามิเตอร์การค้นหา

pageSize integer

จํานวน Models สูงสุดที่จะแสดง (ต่อหน้า)

หากไม่ระบุ ระบบจะแสดงผล 50 โมเดลต่อหน้า วิธีนี้จะแสดงผลโมเดลสูงสุด 1, 000 รายการต่อหน้า แม้ว่าคุณจะส่ง pageSize ที่ใหญ่กว่าก็ตาม

pageToken string

โทเค็นหน้าเว็บที่ได้รับจากการเรียกใช้ models.list ก่อนหน้านี้

ระบุ pageToken ที่แสดงผลโดยคําขอ 1 รายการเป็นอาร์กิวเมนต์สําหรับคําขอถัดไปเพื่อดึงข้อมูลหน้าถัดไป

เมื่อแบ่งหน้าเว็บ พารามิเตอร์อื่นๆ ทั้งหมดที่ระบุให้กับ models.list ต้องตรงกับการเรียกที่ให้โทเค็นหน้าเว็บ

เนื้อหาของคำขอ

เนื้อหาของคำขอต้องว่างเปล่า

ตัวอย่างคำขอ

Python

import google.generativeai as genai

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

เปลือกหอย

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

เนื้อหาการตอบกลับ

การตอบกลับจาก ListModel ที่มีรายการโมเดลแบบแบ่งหน้า

หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้

ฟิลด์
models[] object (Model)

โมเดลที่แสดงผล

nextPageToken string

โทเค็น ซึ่งสามารถส่งเป็น pageToken เพื่อเรียกข้อมูลหน้าถัดไป

หากไม่ระบุฟิลด์นี้ ระบบจะไม่แสดงหน้าเว็บอีก

การแสดง JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

ทรัพยากร REST: models

แหล่งข้อมูล: โมเดล

ข้อมูลเกี่ยวกับโมเดลภาษา Generative

ฟิลด์
name string

ต้องระบุ ชื่อทรัพยากรของ Model ดูค่าที่อนุญาตทั้งหมดได้ที่ตัวแปรรูปแบบ

รูปแบบ: models/{model} ที่มีรูปแบบการตั้งชื่อ {model} ดังนี้

  • "{baseModelId}-{version}"

ตัวอย่าง

  • models/gemini-1.5-flash-001
baseModelId string

ต้องระบุ ชื่อของโมเดลพื้นฐาน ให้ส่งค่านี้ไปยังคําขอการสร้าง

ตัวอย่าง

  • gemini-1.5-flash
version string

ต้องระบุ หมายเลขเวอร์ชันของโมเดล

ค่านี้แสดงถึงเวอร์ชันหลัก (1.0 หรือ 1.5)

displayName string

ชื่อรุ่นที่ผู้ใช้อ่านได้ เช่น "Gemini 1.5 Flash"

ชื่อมีความยาวได้สูงสุด 128 อักขระและประกอบด้วยอักขระ UTF-8 ใดก็ได้

description string

คำอธิบายสั้นๆ ของโมเดล

inputTokenLimit integer

จำนวนโทเค็นอินพุตสูงสุดที่อนุญาตสำหรับโมเดลนี้

outputTokenLimit integer

จำนวนโทเค็นเอาต์พุตสูงสุดที่ใช้ได้กับโมเดลนี้

supportedGenerationMethods[] string

วิธีการสร้างที่รองรับของโมเดล

ชื่อเมธอด API ที่เกี่ยวข้องจะกำหนดเป็นสตริงแบบ Pascal Case เช่น generateMessage และ generateContent

temperature number

ควบคุมความสุ่มของเอาต์พุต

ค่าที่ใช้ได้อยู่ในช่วง [0.0,maxTemperature] ขึ้นไป ค่าที่สูงขึ้นจะสร้างคำตอบที่หลากหลายมากขึ้น ขณะที่ค่าที่ใกล้เคียงกับ 0.0 มักจะส่งผลให้โมเดลให้คำตอบที่น่าประหลาดใจน้อยลง ค่านี้ระบุค่าเริ่มต้นที่แบ็กเอนด์จะใช้ขณะเรียกใช้โมเดล

maxTemperature number

อุณหภูมิสูงสุดที่รุ่นนี้ใช้ได้

topP number

สำหรับการสุ่มตัวอย่างนิวเคลียส

การสุ่มตัวอย่าง Nucleus จะพิจารณาชุดโทเค็นที่น้อยที่สุดซึ่งผลรวมความน่าจะเป็นมีอย่างน้อย topP ค่านี้ระบุค่าเริ่มต้นที่แบ็กเอนด์จะใช้ขณะเรียกใช้โมเดล

topK integer

สําหรับการสุ่มตัวอย่าง Top-k

การสุ่มตัวอย่าง Top-k จะพิจารณาชุดโทเค็นที่เป็นไปได้มากที่สุด topK รายการ ค่านี้ระบุค่าเริ่มต้นที่แบ็กเอนด์จะใช้ขณะเรียกใช้โมเดล หากเป็นค่าว่าง แสดงว่าโมเดลไม่ได้ใช้การสุ่มตัวอย่าง Top-K และระบบไม่อนุญาตให้ใช้ topK เป็นพารามิเตอร์การสร้าง

การแสดง JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}