REST Resource: models

Resource: Model

Informasi tentang Model Bahasa Generatif.

Representasi JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Kolom
name

string

Wajib. Nama resource Model.

Format: models/{model} dengan konvensi penamaan {model} untuk:

  • "{baseModelId}-{versi}"

Contoh:

  • models/chat-bison-001
baseModelId

string

Wajib. Nama model dasar, teruskan ini ke permintaan pembuatan.

Contoh:

  • chat-bison
version

string

Wajib. Nomor versi model.

Ini mewakili versi utama

displayName

string

Nama model yang dapat dibaca manusia. Mis. "Chat Bison".

Nama dapat berisi hingga 128 karakter dan dapat terdiri dari karakter UTF-8 apa pun.

description

string

Deskripsi singkat tentang model.

inputTokenLimit

integer

Jumlah maksimum token input yang diizinkan untuk model ini.

outputTokenLimit

integer

Jumlah maksimum token output yang tersedia untuk model ini.

supportedGenerationMethods[]

string

Metode pembuatan model yang didukung.

Nama metode ditentukan sebagai string kasus Pascal, seperti generateMessage yang sesuai dengan metode API.

temperature

number

Mengontrol keacakan output.

Nilai dapat berkisar hingga [0.0,1.0], inklusif. Nilai yang lebih dekat ke 1.0 akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat ke 0.0 biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model. Nilai ini menetapkan nilai default yang akan digunakan oleh backend saat melakukan panggilan ke model.

topP

number

Untuk pengambilan sampel Nucleus.

Sampling Nucleus mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP. Nilai ini menetapkan nilai default yang akan digunakan oleh backend saat melakukan panggilan ke model.

topK

integer

Untuk pengambilan sampel Top-k.

Sampling top-k mempertimbangkan kumpulan token yang paling mungkin untuk topK. Nilai ini menetapkan nilai default yang akan digunakan oleh backend saat melakukan panggilan ke model. Jika kosong, menunjukkan bahwa model tidak menggunakan sampling top-k, dan topK tidak diizinkan sebagai parameter pembuatan.

Metode

batchEmbedContents

Menghasilkan beberapa embedding dari model yang diberikan teks input dalam panggilan sinkron.

batchEmbedText

Menghasilkan beberapa embedding dari model yang diberikan teks input dalam panggilan sinkron.

countMessageTokens

Menjalankan tokenizer model pada string dan menampilkan jumlah token.

countTextTokens

Menjalankan tokenizer model pada teks dan menampilkan jumlah token.

countTokens

Menjalankan tokenizer model pada konten input dan menampilkan jumlah token.

embedContent

Menghasilkan embedding dari model yang diberi Content input.

embedText

Menghasilkan embedding dari model yang diberi pesan input.

generateAnswer

Menghasilkan jawaban yang didasarkan pada model yang diberi input GenerateAnswerRequest.

generateContent

Menghasilkan respons dari model yang diberi GenerateContentRequest input.

generateMessage

Menghasilkan respons dari model yang diberi MessagePrompt input.

generateText

Menghasilkan respons dari model yang diberi pesan input.

get

Mendapatkan informasi tentang Model tertentu.

list

Mencantumkan model yang tersedia melalui API.

streamGenerateContent

Menghasilkan respons yang di-streaming dari model yang diberi GenerateContentRequest input.