Endpoint model menyediakan cara bagi Anda untuk mencantumkan model yang tersedia secara terprogram, dan mengambil metadata yang diperluas seperti fungsi yang didukung dan ukuran jendela konteks. Baca selengkapnya di Panduan model.
Metode: models.get
Mendapatkan informasi tentang Model
tertentu seperti nomor versi, batas token, parameter, dan metadata lainnya. Lihat panduan model Gemini untuk mengetahui informasi model yang mendetail.
Endpoint
dapatkan https://generativelanguage.googleapis.com/v1beta/{name=models/*}Parameter jalur
name
string
Wajib. Nama resource model.
Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list
.
Format: models/{model}
Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan harus kosong.
Contoh permintaan
Python
Shell
Isi respons
Jika berhasil, isi respons memuat instance Model
.
Metode: models.list
Mencantumkan Model
yang tersedia melalui Gemini API.
Endpoint
dapatkan https://generativelanguage.googleapis.com/v1beta/modelsParameter kueri
pageSize
integer
Jumlah maksimum Models
yang akan ditampilkan (per halaman).
Jika tidak ditentukan, 50 model akan ditampilkan per halaman. Metode ini menampilkan maksimal 1.000 model per halaman, meskipun Anda meneruskan pageSize yang lebih besar.
pageToken
string
Token halaman, diterima dari panggilan models.list
sebelumnya.
Berikan pageToken
yang ditampilkan oleh satu permintaan sebagai argumen ke permintaan berikutnya untuk mengambil halaman berikutnya.
Saat melakukan penomoran halaman, semua parameter lain yang diberikan untuk models.list
harus sesuai dengan panggilan yang memberikan token halaman.
Isi permintaan
Isi permintaan harus kosong.
Contoh permintaan
Python
Shell
Isi respons
Respons dari ListModel
yang berisi daftar Model yang di-pagination.
Jika berhasil, isi respons memuat data dengan struktur berikut:
models[]
object (Model
)
Model yang ditampilkan.
nextPageToken
string
Token yang dapat dikirim sebagai pageToken
untuk mengambil halaman berikutnya.
Jika kolom ini dihilangkan, maka tidak ada lagi halaman.
Representasi JSON |
---|
{
"models": [
{
object ( |
Resource REST: model
Resource: Model
Informasi tentang Model Bahasa Generatif.
name
string
Wajib. Nama resource Model
. Lihat Varian model untuk semua nilai yang diizinkan.
Format: models/{model}
dengan konvensi penamaan {model}
:
- "{baseModelId}-{version}"
Contoh:
models/gemini-1.5-flash-001
baseModelId
string
Wajib. Nama model dasar, teruskan ke permintaan pembuatan.
Contoh:
gemini-1.5-flash
version
string
Wajib. Nomor versi model.
Ini menunjukkan versi utama (1.0
atau 1.5
)
displayName
string
Nama model yang dapat dibaca manusia. Misalnya, "Gemini 1.5 Flash".
Panjang nama maksimal 128 karakter dan dapat berisi karakter UTF-8 apa saja.
description
string
Deskripsi singkat tentang model.
inputTokenLimit
integer
Jumlah maksimum token input yang diizinkan untuk model ini.
outputTokenLimit
integer
Jumlah maksimum token output yang tersedia untuk model ini.
supportedGenerationMethods[]
string
Metode pembuatan yang didukung model.
Nama metode API yang sesuai ditentukan sebagai string Pascal case, seperti generateMessage
dan generateContent
.
temperature
number
Mengontrol keacakan output.
Nilai dapat memiliki rentang lebih dari [0.0,maxTemperature]
, inklusif. Nilai yang lebih tinggi akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat ke 0.0
biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.
maxTemperature
number
Suhu maksimum yang dapat digunakan model ini.
topP
number
Untuk Pengambilan sampel nukleus.
Pengambilan sampel nukleus mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP
. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.
topK
integer
Untuk pengambilan sampel Top-k.
Sampling top-k mempertimbangkan kumpulan token topK
yang paling mungkin. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menunjukkan bahwa model tidak menggunakan sampling top-k, dan topK
tidak diizinkan sebagai parameter pembuatan.
Representasi JSON |
---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |