Endpoint model menyediakan cara bagi Anda untuk mencantumkan model yang tersedia secara terprogram, dan mengambil metadata yang diperluas seperti fungsi yang didukung dan ukuran jendela konteks. Baca selengkapnya di panduan Model.
Metode: models.get
Mendapatkan informasi tentang Model tertentu seperti nomor versinya, batas token, parameter, dan metadata lainnya. Lihat panduan model Gemini untuk mengetahui informasi model yang mendetail.
Endpoint
gethttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}
Parameter jalur
name
string
Wajib. Nama resource model.
Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.
Format: models/{model} Formatnya adalah models/{model}.
Isi permintaan
Isi permintaan harus kosong.
Contoh permintaan
Python
Go
Shell
Isi respons
Jika berhasil, isi respons memuat instance Model.
Metode: models.list
Mencantumkan Models yang tersedia melalui Gemini API.
Endpoint
gethttps: / /generativelanguage.googleapis.com /v1beta /models
Parameter kueri
pageSize
integer
Jumlah maksimum Models yang akan ditampilkan (per halaman).
Jika tidak ditentukan, 50 model akan ditampilkan per halaman. Metode ini menampilkan paling banyak 1.000 model per halaman, meskipun Anda meneruskan pageSize yang lebih besar.
pageToken
string
Token halaman, diterima dari panggilan models.list sebelumnya.
Berikan pageToken yang ditampilkan oleh satu permintaan sebagai argumen ke permintaan berikutnya untuk mengambil halaman berikutnya.
Saat melakukan penomoran halaman, semua parameter lain yang diberikan untuk models.list harus sesuai dengan panggilan yang menyediakan token halaman.
Isi permintaan
Isi permintaan harus kosong.
Contoh permintaan
Python
Go
Shell
Isi respons
Respons dari ListModel yang berisi daftar Model yang di-pagination.
Jika berhasil, isi respons memuat data dengan struktur berikut:
models[]
object (Model)
Model yang ditampilkan.
nextPageToken
string
Token yang dapat dikirim sebagai pageToken untuk mengambil halaman berikutnya.
Jika kolom ini dihilangkan, tidak ada lagi halaman.
| Representasi JSON |
|---|
{
"models": [
{
object ( |
REST Resource: model
Resource: Model
Informasi tentang Model Bahasa Generatif.
name
string
Wajib. Nama resource Model. Lihat Varian model untuk semua nilai yang diizinkan.
Format: models/{model} dengan konvensi penamaan {model}:
- "{baseModelId}-{version}"
Contoh:
models/gemini-1.5-flash-001
baseModelId
string
Wajib. Nama model dasar, teruskan ini ke permintaan pembuatan.
Contoh:
gemini-1.5-flash
version
string
Wajib. Nomor versi model.
Ini menunjukkan versi utama (1.0 atau 1.5)
displayName
string
Nama model yang dapat dibaca manusia. Misalnya, "Gemini 1.5 Flash".
Nama dapat berisi hingga 128 karakter dan dapat terdiri dari karakter UTF-8 apa pun.
description
string
Deskripsi singkat model.
inputTokenLimit
integer
Jumlah maksimum token input yang diizinkan untuk model ini.
outputTokenLimit
integer
Jumlah maksimum token output yang tersedia untuk model ini.
supportedGenerationMethods[]
string
Metode pembuatan yang didukung model.
Nama metode API yang sesuai ditentukan sebagai string Pascal case, seperti generateMessage dan generateContent.
thinking
boolean
Apakah model mendukung pemikiran.
temperature
number
Mengontrol keacakan output.
Nilai dapat berkisar lebih dari [0.0,maxTemperature], inklusif. Nilai yang lebih tinggi akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat dengan 0.0 biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.
maxTemperature
number
Suhu maksimum yang dapat digunakan model ini.
topP
number
Untuk Pengambilan sampel inti.
Pengambilan sampel inti mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya setidaknya topP. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.
topK
integer
Untuk pengambilan sampel Top-k.
Pengambilan sampel top-k mempertimbangkan kumpulan topK token yang paling mungkin. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menunjukkan bahwa model tidak menggunakan pengambilan sampel top-k, dan topK tidak diizinkan sebagai parameter pembuatan.
| Representasi JSON |
|---|
{ "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } |
Metode: models.predict
Melakukan permintaan prediksi.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predict
Parameter jalur
model
string
Wajib. Nama model untuk prediksi. Format: name=models/{model}. Formatnya adalah models/{model}.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
instances[]
value (Value format)
Wajib. Instance yang merupakan input ke panggilan prediksi.
parameters
value (Value format)
Opsional. Parameter yang mengatur panggilan prediksi.
Isi respons
Pesan respons untuk [PredictionService.Predict].
Jika berhasil, isi respons memuat data dengan struktur berikut:
predictions[]
value (Value format)
Output panggilan prediksi.
| Representasi JSON |
|---|
{ "predictions": [ value ] } |
Metode: models.predictLongRunning
Sama seperti models.predict, tetapi menampilkan LRO.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predictLongRunning
Parameter jalur
model
string
Wajib. Nama model untuk prediksi. Format: name=models/{model}.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
instances[]
value (Value format)
Wajib. Instance yang merupakan input ke panggilan prediksi.
parameters
value (Value format)
Opsional. Parameter yang mengatur panggilan prediksi.
Isi respons
Jika berhasil, isi respons memuat instance Operation.