PaLM (deprecated)

Metode: models.generateText

Menghasilkan respons dari model yang diberi pesan input.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parameter jalur

model string

Wajib. Nama Model atau TunedModel yang akan digunakan untuk membuat penyelesaian. Contoh: models/text-bison-001 TunedModels/sentence-translator-u3b7m Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
prompt object (TextPrompt)

Wajib. Teks input bentuk bebas yang diberikan ke model sebagai prompt.

Diberikan perintah, model akan menghasilkan respons TextCompletion yang diprediksinya sebagai selesainya teks input.

safetySettings[] object (SafetySetting)

Opsional. Daftar instance SafetySetting unik untuk memblokir konten tidak aman.

yang akan diterapkan pada GenerateTextRequest.prompt dan GenerateTextResponse.candidates. Tidak boleh ada lebih dari satu setelan untuk setiap jenis SafetyCategory. API akan memblokir setiap perintah dan respons yang gagal memenuhi nilai minimum yang ditetapkan oleh setelan ini. Daftar ini menggantikan setelan default untuk setiap SafetyCategory yang ditentukan di safetySettings. Jika tidak ada SafetySetting untuk SafetyCategory tertentu yang disediakan dalam daftar, API akan menggunakan setelan keamanan default untuk kategori tersebut. Kategori bahaya HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXIcity, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS didukung dalam layanan teks.

stopSequences[] string

Kumpulan urutan karakter (hingga 5) yang akan menghentikan pembuatan output. Jika ditetapkan, API akan berhenti pada penampilan pertama urutan perhentian. Urutan perhentian tidak akan disertakan sebagai bagian dari respons.

temperature number

Opsional. Mengontrol keacakan output. Catatan: Nilai default bervariasi menurut model, lihat atribut Model.temperature dari Model menampilkan fungsi getModel.

Nilainya dapat berkisar dari [0.0,1.0], inklusif. Nilai yang lebih dekat ke 1,0 akan menghasilkan respons yang lebih bervariasi dan kreatif, sedangkan nilai yang lebih dekat ke 0,0 biasanya akan menghasilkan respons yang lebih jelas dari model.

candidateCount integer

Opsional. Jumlah respons yang dihasilkan yang akan ditampilkan.

Nilai ini harus antara [1, 8], inklusif. Jika tidak disetel, nilai defaultnya adalah 1.

maxOutputTokens integer

Opsional. Jumlah maksimum token yang akan disertakan dalam kandidat.

Jika tidak disetel, setelan ini akan ditetapkan secara default ke outputTokenLimit yang ditentukan dalam spesifikasi Model.

topP number

Opsional. Probabilitas kumulatif maksimum token yang perlu dipertimbangkan saat pengambilan sampel.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Token diurutkan berdasarkan probabilitas yang ditetapkan sehingga hanya token yang paling mungkin yang dipertimbangkan. Sampling Top-k secara langsung membatasi jumlah maksimum token yang akan dipertimbangkan, sedangkan Sampling Nucleus membatasi jumlah token berdasarkan probabilitas kumulatif.

Catatan: Nilai default bervariasi menurut model, lihat atribut Model.top_p dari Model menampilkan fungsi getModel.

topK integer

Opsional. Jumlah maksimum token yang perlu dipertimbangkan saat diambil sampelnya.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Sampling top-k mempertimbangkan kumpulan token topK yang paling mungkin. Defaultnya adalah 40.

Catatan: Nilai default bervariasi menurut model, lihat atribut Model.top_k dari Model menampilkan fungsi getModel.

Isi respons

Jika berhasil, isi respons memuat instance GenerateTextResponse.

Metode: models.countTextTokens

Menjalankan tokenizer model pada teks dan menampilkan jumlah token.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parameter jalur

model string

Wajib. Nama resource model. Ini berfungsi sebagai ID yang akan digunakan Model.

Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.

Format: models/{model} Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
prompt object (TextPrompt)

Wajib. Teks input bentuk bebas yang diberikan ke model sebagai prompt.

Isi respons

Respons dari models.countTextTokens.

Metode ini menampilkan tokenCount model untuk prompt.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
tokenCount integer

Jumlah token yang menjadi token model sebagai token prompt.

Selalu non-negatif.

Representasi JSON
{
  "tokenCount": integer
}

Metode: models.generateMessage

Menghasilkan respons dari model yang diberi MessagePrompt input.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parameter jalur

model string

Wajib. Nama model yang akan digunakan.

Format: name=models/{model}. Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
prompt object (MessagePrompt)

Wajib. Input tekstual terstruktur yang diberikan ke model sebagai prompt.

Jika diberi perintah, model akan menampilkan pesan berikutnya dalam diskusi yang diprediksinya.

temperature number

Opsional. Mengontrol keacakan output.

Nilai dapat memiliki rentang lebih dari [0.0,1.0], inklusif. Nilai yang lebih dekat ke 1.0 akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat ke 0.0 biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model.

candidateCount integer

Opsional. Jumlah pesan respons yang dihasilkan untuk ditampilkan.

Nilai ini harus antara [1, 8], inklusif. Jika tidak disetel, nilai defaultnya adalah 1.

topP number

Opsional. Probabilitas kumulatif maksimum token yang perlu dipertimbangkan saat pengambilan sampel.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Pengambilan sampel inti mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya minimal topP.

topK integer

Opsional. Jumlah maksimum token yang perlu dipertimbangkan saat diambil sampelnya.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Sampling top-k mempertimbangkan kumpulan token topK yang paling mungkin.

Isi respons

Respons dari model.

Hal ini meliputi pesan kandidat dan histori percakapan dalam bentuk pesan yang diurutkan secara kronologis.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
candidates[] object (Message)

Pesan respons kandidat dari model.

messages[] object (Message)

Histori percakapan yang digunakan oleh model.

filters[] object (ContentFilter)

Serangkaian metadata pemfilteran konten untuk teks perintah dan respons.

Ini menunjukkan SafetyCategory mana yang memblokir kandidat dari respons ini, HarmProbability terendah yang memicu pemblokiran, dan setelan HarmThreshold untuk kategori tersebut.

Representasi JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metode: models.countMessageTokens

Menjalankan tokenizer model pada string dan menampilkan jumlah token.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parameter jalur

model string

Wajib. Nama resource model. Ini berfungsi sebagai ID yang akan digunakan Model.

Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list.

Format: models/{model} Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
prompt object (MessagePrompt)

Wajib. Dialog, yang jumlah tokennya akan ditampilkan.

Isi respons

Respons dari models.countMessageTokens.

Metode ini menampilkan tokenCount model untuk prompt.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
tokenCount integer

Jumlah token yang menjadi token model sebagai token prompt.

Selalu non-negatif.

Representasi JSON
{
  "tokenCount": integer
}

Metode: models.embedText

Menghasilkan embedding dari model yang diberi pesan input.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parameter jalur

model string

Wajib. Nama model yang akan digunakan dengan format model=models/{model}. Formatnya adalah models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
text string

Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding.

Isi respons

Respons terhadap EmbedTextRequest.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
embedding object (Embedding)

Hanya output. Embedding yang dihasilkan dari teks input.

Representasi JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metode: models.batchEmbedText

Menghasilkan beberapa embedding dari teks input yang diberikan model dalam panggilan sinkron.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parameter jalur

model string

Wajib. Nama Model yang akan digunakan untuk menghasilkan embedding. Contoh: models/embedding-gecko-001 Modelnya berupa models/{model}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
texts[] string

Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding. Batas saat ini adalah 100 teks, dan error akan ditampilkan jika tidak ada error.

requests[] object (EmbedTextRequest)

Opsional. Permintaan penyematan untuk batch. Hanya salah satu dari texts atau requests yang dapat disetel.

Isi respons

Respons terhadap EmbedTextRequest.

Jika berhasil, isi respons memuat data dengan struktur berikut:

Bidang
embeddings[] object (Embedding)

Hanya output. Embeddings yang dihasilkan dari teks input.

Representasi JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Permintaan untuk mendapatkan embedding teks dari model.

Representasi JSON
{
  "model": string,
  "text": string
}
Bidang
model string

Wajib. Nama model yang akan digunakan dengan format model=models/{model}.

text string

Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding.

Metode: TunedModels.generateText

Menghasilkan respons dari model yang diberi pesan input.

Endpoint

posting https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parameter jalur

model string

Wajib. Nama Model atau TunedModel yang akan digunakan untuk membuat penyelesaian. Contoh: models/text-bison-001 TunedModels/sentence-translator-u3b7m Formatnya adalah tunedModels/{tunedmodel}.

Isi permintaan

Isi permintaan memuat data dengan struktur berikut:

Bidang
prompt object (TextPrompt)

Wajib. Teks input bentuk bebas yang diberikan ke model sebagai prompt.

Diberikan perintah, model akan menghasilkan respons TextCompletion yang diprediksinya sebagai selesainya teks input.

safetySettings[] object (SafetySetting)

Opsional. Daftar instance SafetySetting unik untuk memblokir konten tidak aman.

yang akan diterapkan pada GenerateTextRequest.prompt dan GenerateTextResponse.candidates. Tidak boleh ada lebih dari satu setelan untuk setiap jenis SafetyCategory. API akan memblokir setiap perintah dan respons yang gagal memenuhi nilai minimum yang ditetapkan oleh setelan ini. Daftar ini menggantikan setelan default untuk setiap SafetyCategory yang ditentukan di safetySettings. Jika tidak ada SafetySetting untuk SafetyCategory tertentu yang disediakan dalam daftar, API akan menggunakan setelan keamanan default untuk kategori tersebut. Kategori bahaya HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXIcity, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS didukung dalam layanan teks.

stopSequences[] string

Kumpulan urutan karakter (hingga 5) yang akan menghentikan pembuatan output. Jika ditetapkan, API akan berhenti pada penampilan pertama urutan perhentian. Urutan perhentian tidak akan disertakan sebagai bagian dari respons.

temperature number

Opsional. Mengontrol keacakan output. Catatan: Nilai default bervariasi menurut model, lihat atribut Model.temperature dari Model menampilkan fungsi getModel.

Nilainya dapat berkisar dari [0.0,1.0], inklusif. Nilai yang lebih dekat ke 1,0 akan menghasilkan respons yang lebih bervariasi dan kreatif, sedangkan nilai yang lebih dekat ke 0,0 biasanya akan menghasilkan respons yang lebih jelas dari model.

candidateCount integer

Opsional. Jumlah respons yang dihasilkan yang akan ditampilkan.

Nilai ini harus antara [1, 8], inklusif. Jika tidak disetel, nilai defaultnya adalah 1.

maxOutputTokens integer

Opsional. Jumlah maksimum token yang akan disertakan dalam kandidat.

Jika tidak disetel, setelan ini akan ditetapkan secara default ke outputTokenLimit yang ditentukan dalam spesifikasi Model.

topP number

Opsional. Probabilitas kumulatif maksimum token yang perlu dipertimbangkan saat pengambilan sampel.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Token diurutkan berdasarkan probabilitas yang ditetapkan sehingga hanya token yang paling mungkin yang dipertimbangkan. Sampling Top-k secara langsung membatasi jumlah maksimum token yang akan dipertimbangkan, sedangkan Sampling Nucleus membatasi jumlah token berdasarkan probabilitas kumulatif.

Catatan: Nilai default bervariasi menurut model, lihat atribut Model.top_p dari Model menampilkan fungsi getModel.

topK integer

Opsional. Jumlah maksimum token yang perlu dipertimbangkan saat diambil sampelnya.

Model ini menggunakan kombinasi Top-k dan pengambilan sampel inti.

Sampling top-k mempertimbangkan kumpulan token topK yang paling mungkin. Defaultnya adalah 40.

Catatan: Nilai default bervariasi menurut model, lihat atribut Model.top_k dari Model menampilkan fungsi getModel.

Isi respons

Jika berhasil, isi respons memuat instance GenerateTextResponse.

ContentFilter

Metadata pemfilteran konten yang terkait dengan pemrosesan satu permintaan.

ContentFilter berisi alasan dan string pendukung opsional. Alasannya mungkin tidak ditentukan.

Representasi JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
Bidang
reason enum (BlockedReason)

Alasan konten diblokir selama pemrosesan permintaan.

message string

String yang menjelaskan perilaku pemfilteran secara lebih mendetail.

BlockedReason

Daftar alasan mengapa konten mungkin telah diblokir.

Enum
BLOCKED_REASON_UNSPECIFIED Alasan pemblokiran tidak ditentukan.
SAFETY Konten diblokir oleh setelan keamanan.
OTHER Konten diblokir, tetapi alasannya tidak dikategorikan.

Embedding

Daftar float yang mewakili embedding.

Representasi JSON
{
  "value": [
    number
  ]
}
Bidang
value[] number

Nilai embedding.

Pesan

Unit dasar teks terstruktur.

Message menyertakan author dan content dari Message.

author digunakan untuk memberi tag pada pesan saat dimasukkan ke model sebagai teks.

Representasi JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Bidang
author string

Opsional. Penulis Pesan ini.

Ini berfungsi sebagai kunci untuk memberi tag pada isi Pesan ini ketika disajikan ke model sebagai teks.

Penulis dapat berupa string alfanumerik.

content string

Wajib. Konten teks Message terstruktur.

citationMetadata object (CitationMetadata)

Hanya output. Informasi kutipan untuk content yang dibuat oleh model di Message ini.

Jika Message ini dibuat sebagai output dari model, kolom ini dapat diisi dengan informasi atribusi untuk teks apa pun yang disertakan dalam content. Kolom ini hanya digunakan pada output.

MessagePrompt

Semua teks input terstruktur yang diteruskan ke model sebagai prompt.

MessagePrompt berisi kumpulan kolom terstruktur yang memberikan konteks untuk percakapan, contoh pasangan pesan output model/input pengguna yang mempersiapkan model untuk merespons dengan cara yang berbeda, dan histori percakapan atau daftar pesan yang merepresentasikan berganti-ganti percakapan antara pengguna dan model.

Representasi JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Bidang
context string

Opsional. Teks yang harus disediakan ke model terlebih dahulu untuk melandasi respons.

Jika tidak kosong, context ini akan diberikan ke model terlebih dahulu sebelum examples dan messages. Saat menggunakan context, pastikan untuk menyediakannya bersama setiap permintaan guna mempertahankan kontinuitas.

Kolom ini dapat berupa deskripsi perintah Anda ke model untuk membantu memberikan konteks dan memandu respons. Contoh: "Terjemahkan frasa dari bahasa Inggris ke bahasa Prancis". atau "Berdasarkan sebuah pernyataan, klasifikasikan sentimen sebagai bahagia, sedih, atau netral."

Apa pun yang disertakan dalam kolom ini akan lebih diprioritaskan daripada histori pesan jika total ukuran input melebihi inputTokenLimit model dan permintaan input terpotong.

examples[] object (Example)

Opsional. Contoh konten yang harus dihasilkan oleh model.

Ini mencakup input pengguna dan respons yang harus diemulasikan model.

examples ini diperlakukan sama dengan pesan percakapan, kecuali bahwa pesan tersebut lebih diutamakan daripada histori di messages: Jika total ukuran input melebihi inputTokenLimit model, input akan dipotong. Item akan dihapus dari messages sebelum examples.

messages[] object (Message)

Wajib. Ringkasan histori percakapan terbaru yang diurutkan secara kronologis.

Ternyata bergantian di antara dua penulis.

Jika total ukuran input melebihi inputTokenLimit model, input akan dipotong: Item terlama akan dihapus dari messages.

Contoh

Contoh input/output yang digunakan untuk menginstruksikan Model.

Contoh ini menunjukkan bagaimana model seharusnya merespons atau memformat responsnya.

Representasi JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Bidang
input object (Message)

Wajib. Contoh Message input dari pengguna.

output object (Message)

Wajib. Contoh output yang akan dihasilkan model berdasarkan inputnya.

GenerateTextResponse

Respons dari model, termasuk penyelesaian kandidat.

Representasi JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Bidang
candidates[] object (TextCompletion)

Respons kandidat dari model.

filters[] object (ContentFilter)

Serangkaian metadata pemfilteran konten untuk teks perintah dan respons.

Ini menunjukkan SafetyCategory mana yang memblokir kandidat dari respons ini, HarmProbability terendah yang memicu pemblokiran, dan setelan HarmThreshold untuk kategori tersebut. Hal ini menunjukkan perubahan terkecil pada SafetySettings yang diperlukan untuk membatalkan pemblokiran setidaknya 1 respons.

Pemblokiran dikonfigurasi oleh SafetySettings dalam permintaan (atau SafetySettings default API).

safetyFeedback[] object (SafetyFeedback)

Menampilkan masukan keamanan apa pun yang terkait dengan pemfilteran konten.

TextCompletion

Teks output yang ditampilkan dari model.

Representasi JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Bidang
output string

Hanya output. Teks yang dihasilkan yang ditampilkan dari model.

safetyRatings[] object (SafetyRating)

Rating untuk keamanan respons.

Hanya ada satu rating per kategori.

citationMetadata object (CitationMetadata)

Hanya output. Informasi kutipan untuk output yang dibuat oleh model di TextCompletion ini.

Kolom ini dapat diisi dengan informasi atribusi untuk teks apa pun yang disertakan dalam output.

SafetyFeedback

Masukan keselamatan untuk seluruh permintaan.

Kolom ini diisi jika konten dalam input dan/atau respons diblokir karena setelan keamanan. SafetyFeedback mungkin tidak ada untuk setiap HarmCategory. Setiap SafetyFeedback akan menampilkan setelan keamanan yang digunakan oleh permintaan serta HarmProbability terendah yang harus diizinkan untuk menampilkan hasil.

Representasi JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Bidang
rating object (SafetyRating)

Rating keamanan yang dievaluasi dari konten.

setting object (SafetySetting)

Setelan keamanan yang diterapkan pada permintaan.

TextPrompt

Teks yang diberikan ke model sebagai prompt.

Model akan menggunakan TextPrompt ini untuk Membuat pelengkapan teks.

Representasi JSON
{
  "text": string
}
Bidang
text string

Wajib. Teks perintah.