Models

Metode: models.get

Mendapatkan informasi tentang Model tertentu.

Endpoint

dapatkan https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Parameter jalur

name string

Wajib. Nama resource model.

Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.

Format: models/{model} Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-pro?key=$GOOGLE_API_KEY

Isi respons

Jika berhasil, isi respons memuat instance Model.

Metode: models.list

Mencantumkan model yang tersedia melalui API.

Endpoint

dapatkan https://generativelanguage.googleapis.com/v1beta/models

Parameter kueri

pageSize integer

Jumlah maksimum Models yang akan ditampilkan (per halaman).

Layanan mungkin menampilkan lebih sedikit model. Jika tidak ditentukan, maksimal 50 model akan ditampilkan per halaman. Metode ini menampilkan maksimal 1.000 model per halaman, meskipun Anda meneruskan pageSize yang lebih besar.

pageToken string

Token halaman, yang diterima dari panggilan models.list sebelumnya.

Berikan pageToken yang ditampilkan oleh satu permintaan sebagai argumen bagi permintaan berikutnya untuk mengambil halaman berikutnya.

Saat memberi nomor halaman, semua parameter lain yang diberikan ke models.list harus cocok dengan panggilan yang menyediakan token halaman.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Isi respons

Respons dari ListModel yang berisi daftar Model yang diberi nomor halaman.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
models[] object (Model)

Model yang ditampilkan.

nextPageToken string

Token, yang dapat dikirim sebagai pageToken untuk mengambil halaman berikutnya.

Jika kolom ini dihilangkan, maka tidak ada lagi halaman.

Representasi JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Resource REST: model

Resource: Model

Informasi tentang Model Bahasa Generatif.

Representasi JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}
Bidang
name string

Wajib. Nama resource Model.

Format: models/{model} dengan konvensi penamaan {model}:

  • "{baseModelId}-{version}"

Contoh:

  • models/chat-bison-001
baseModelId string

Wajib. Nama model dasar, teruskan ke permintaan pembuatan.

Contoh:

  • chat-bison
version string

Wajib. Nomor versi model.

Versi ini mewakili versi utama

displayName string

Nama model yang dapat dibaca manusia. Mis. "Chat Bison".

Panjang nama maksimal 128 karakter dan dapat berisi karakter UTF-8 apa saja.

description string

Deskripsi singkat tentang model.

inputTokenLimit integer

Jumlah maksimum token input yang diizinkan untuk model ini.

outputTokenLimit integer

Jumlah maksimum token output yang tersedia untuk model ini.

supportedGenerationMethods[] string

Metode pembuatan yang didukung model.

Nama metode ditetapkan sebagai string Pascal case, seperti generateMessage yang sesuai dengan metode API.

temperature number

Mengontrol keacakan output.

Nilai dapat memiliki rentang lebih dari [0.0,maxTemperature], inklusif. Nilai yang lebih tinggi akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat ke 0.0 biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

maxTemperature number

Suhu maksimum yang dapat digunakan model ini.

topP number

Untuk pengambilan sampel Nucleus.

Pengambilan sampel inti mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

topK integer

Untuk pengambilan sampel Top-k.

Sampling top-k mempertimbangkan kumpulan token topK yang paling mungkin. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menandakan bahwa model tidak menggunakan pengambilan sampel top-k, dan topK tidak diizinkan sebagai parameter pembuatan.