Models

Endpoint model menyediakan cara bagi Anda untuk mencantumkan model yang tersedia secara terprogram, dan mengambil metadata yang diperluas seperti fungsi yang didukung dan ukuran jendela konteks. Baca selengkapnya di panduan Model.

Metode: models.get

Mendapatkan informasi tentang Model tertentu seperti nomor versi, batas token, parameter, dan metadata lainnya. Lihat panduan model Gemini untuk mengetahui informasi model yang mendetail.

Endpoint

get https://generativelanguage.googleapis.com/v1beta/{name=models/*}

URL menggunakan sintaksis gRPC Transcoding.

Parameter jalur

name string

Wajib. Nama resource model.

Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.

Format: models/{model} Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

import google.generativeai as genai

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Isi respons

Jika berhasil, isi respons memuat instance Model.

Metode: models.list

Mencantumkan Model yang tersedia melalui Gemini API.

Endpoint

get https://generativelanguage.googleapis.com/v1beta/models

URL menggunakan sintaksis gRPC Transcoding.

Parameter kueri

pageSize integer

Jumlah maksimum Models yang akan ditampilkan (per halaman).

Jika tidak ditentukan, 50 model akan ditampilkan per halaman. Metode ini menampilkan maksimal 1.000 model per halaman, meskipun Anda meneruskan pageSize yang lebih besar.

pageToken string

Token halaman, diterima dari panggilan models.list sebelumnya.

Berikan pageToken yang ditampilkan oleh satu permintaan sebagai argumen ke permintaan berikutnya untuk mengambil halaman berikutnya.

Saat melakukan penomoran halaman, semua parameter lain yang diberikan untuk models.list harus sesuai dengan panggilan yang menyediakan token halaman.

Isi permintaan

Isi permintaan harus kosong.

Contoh permintaan

Python

import google.generativeai as genai

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Shell

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Isi respons

Respons dari ListModel yang berisi daftar Model yang di-paging.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Kolom
models[] object (Model)

Model yang ditampilkan.

nextPageToken string

Token yang dapat dikirim sebagai pageToken untuk mengambil halaman berikutnya.

Jika kolom ini dihilangkan, maka tidak ada halaman lagi.

Representasi JSON
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Resource REST: model

Resource: Model

Informasi tentang Model Bahasa Generatif.

Kolom
name string

Wajib. Nama resource Model. Lihat Varian model untuk semua nilai yang diizinkan.

Format: models/{model} dengan konvensi penamaan {model}:

  • "{baseModelId}-{version}"

Contoh:

  • models/gemini-1.5-flash-001
baseModelId string

Wajib. Nama model dasar, teruskan ke permintaan pembuatan.

Contoh:

  • gemini-1.5-flash
version string

Wajib. Nomor versi model.

Ini menunjukkan versi utama (1.0 atau 1.5)

displayName string

Nama model yang dapat dibaca manusia. Misalnya, "Gemini 1.5 Flash".

Nama dapat berisi hingga 128 karakter dan dapat terdiri dari karakter UTF-8 apa pun.

description string

Deskripsi singkat model.

inputTokenLimit integer

Jumlah maksimum token input yang diizinkan untuk model ini.

outputTokenLimit integer

Jumlah maksimum token output yang tersedia untuk model ini.

supportedGenerationMethods[] string

Metode pembuatan yang didukung model.

Nama metode API yang sesuai ditentukan sebagai string Pascal case, seperti generateMessage dan generateContent.

temperature number

Mengontrol keacakan output.

Nilai dapat berkisar lebih dari [0.0,maxTemperature], inklusif. Nilai yang lebih tinggi akan menghasilkan respons yang lebih beragam, sedangkan nilai yang lebih dekat dengan 0.0 biasanya akan menghasilkan respons yang kurang mengejutkan dari model. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

maxTemperature number

Suhu maksimum yang dapat digunakan model ini.

topP number

Untuk Pengambilan sampel Nucleus.

Pengambilan sampel nukleus mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model.

topK integer

Untuk pengambilan sampel Top-k.

Pengambilan sampel top-k mempertimbangkan kumpulan topK token yang paling mungkin. Nilai ini menentukan default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menunjukkan bahwa model tidak menggunakan sampling top-k, dan topK tidak diizinkan sebagai parameter pembuatan.

Representasi JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}