Models

Endpoint model menyediakan cara bagi Anda untuk mencantumkan model yang tersedia secara terprogram, dan mengambil metadata yang diperluas seperti fungsi yang didukung dan ukuran jendela konteks. Baca selengkapnya di Panduan model.

Metode: models.get

Mendapatkan informasi tentang Model tertentu seperti nomor versi, batas token, parameter, dan metadata lainnya. Lihat panduan model Gemini untuk mengetahui informasi model yang mendetail.

Endpoint

dapatkan https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parameter jalur

name string

Wajib. Nama resource model.

Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.

Format: models/{model} Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Isi respons

Jika berhasil, isi respons memuat instance Model.

Metode: models.list

Mencantumkan Model yang tersedia melalui Gemini API.

Endpoint

dapatkan https://generativelanguage.googleapis.com/v1beta/models

Parameter kueri

pageSize integer

Jumlah maksimum Models yang akan ditampilkan (per halaman).

Jika tidak ditentukan, 50 model akan ditampilkan per halaman. Metode ini menampilkan maksimal 1.000 model per halaman, meskipun Anda meneruskan pageSize yang lebih besar.

pageToken string

Token halaman, diterima dari panggilan models.list sebelumnya.

Berikan pageToken yang ditampilkan oleh satu permintaan sebagai argumen ke permintaan berikutnya untuk mengambil halaman berikutnya.

Saat melakukan penomoran halaman, semua parameter lain yang diberikan untuk models.list harus sesuai dengan panggilan yang memberikan token halaman.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Isi respons

Respons dari ListModel yang berisi daftar Model yang di-pagination.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Kolom
models[] object (Model)

Model yang ditampilkan.

nextPageToken string

Token yang dapat dikirim sebagai pageToken untuk mengambil halaman berikutnya.

Jika kolom ini dihilangkan, maka tidak ada lagi halaman.

Representasi JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Resource REST: model

Resource: Model

Informasi tentang Model Bahasa Generatif.

Kolom
name string

Wajib. Nama resource Model. Lihat Varian model untuk semua nilai yang diizinkan.

Format: models/{model} dengan konvensi penamaan {model}:

  • "{baseModelId}-{version}"

Contoh:

  • models/gemini-1.5-flash-001
baseModelId string

Wajib. Nama model dasar, teruskan ke permintaan pembuatan.

Contoh:

  • gemini-1.5-flash
version string

Wajib. Nomor versi model.

Ini menunjukkan versi utama (1.0 atau 1.5)

displayName string

Nama model yang dapat dibaca manusia. Misalnya, "Gemini 1.5 Flash".

Panjang nama maksimal 128 karakter dan dapat berisi karakter UTF-8 apa saja.

description string

Deskripsi singkat tentang model.

inputTokenLimit integer

Jumlah maksimum token input yang diizinkan untuk model ini.

outputTokenLimit integer

Jumlah maksimum token output yang tersedia untuk model ini.

supportedGenerationMethods[] string

Metode pembuatan yang didukung model.

Nama metode API yang sesuai ditentukan sebagai string Pascal case, seperti generateMessage dan generateContent.

temperature number

Mengontrol keacakan output.

Nilai dapat memiliki rentang lebih dari [0.0,maxTemperature], inklusif. Nilai yang lebih tinggi akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat ke 0.0 biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

maxTemperature number

Suhu maksimum yang dapat digunakan model ini.

topP number

Untuk Pengambilan sampel nukleus.

Pengambilan sampel nukleus mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

topK integer

Untuk pengambilan sampel Top-k.

Sampling top-k mempertimbangkan kumpulan token topK yang paling mungkin. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menunjukkan bahwa model tidak menggunakan sampling top-k, dan topK tidak diizinkan sebagai parameter pembuatan.

Representasi JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}