Metode: models.generateText
Menghasilkan respons dari model berdasarkan pesan input.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
Parameter jalur
model
string
Wajib. Nama Model
atau TunedModel
yang akan digunakan untuk membuat penyelesaian. Contoh: models/text-bison-001 tunedModels/sentence-translator-u3b7m Bentuknya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
prompt
object (TextPrompt
)
Wajib. Teks input bentuk bebas yang diberikan ke model sebagai perintah.
Berdasarkan perintah yang diberikan, model akan menghasilkan respons TextCompletion yang diprediksi sebagai penyelesaian teks input.
safetySettings[]
object (SafetySetting
)
Opsional. Daftar instance SafetySetting
unik untuk memblokir konten tidak aman.
yang akan diterapkan pada GenerateTextRequest.prompt
dan GenerateTextResponse.candidates
. Tidak boleh ada lebih dari satu setelan untuk setiap jenis SafetyCategory
. API akan memblokir semua perintah dan respons yang tidak memenuhi nilai minimum yang ditetapkan oleh setelan ini. Daftar ini menggantikan setelan default untuk setiap SafetyCategory
yang ditentukan dalam safetySettings. Jika tidak ada SafetySetting
untuk SafetyCategory
tertentu yang diberikan dalam daftar, API akan menggunakan setelan keamanan default untuk kategori tersebut. Kategori bahaya HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS didukung dalam layanan teks.
stopSequences[]
string
Kumpulan urutan karakter (hingga 5) yang akan menghentikan pembuatan output. Jika ditentukan, API akan berhenti pada kemunculan pertama urutan berhenti. Urutan berhenti tidak akan disertakan sebagai bagian dari respons.
temperature
number
Opsional. Mengontrol keacakan output. Catatan: Nilai default bervariasi menurut model. Lihat atribut Model.temperature
dari Model
yang ditampilkan oleh fungsi getModel
.
Nilai dapat berkisar dari [0.0,1.0], inklusif. Nilai yang lebih mendekati 1,0 akan menghasilkan respons yang lebih bervariasi dan kreatif, sedangkan nilai yang lebih mendekati 0,0 biasanya akan menghasilkan respons yang lebih langsung dari model.
candidateCount
integer
Opsional. Jumlah respons yang dihasilkan untuk ditampilkan.
Nilai ini harus antara [1, 8], inklusif. Jika tidak disetel, nilai defaultnya adalah 1.
maxOutputTokens
integer
Opsional. Jumlah maksimum token yang akan disertakan dalam kandidat.
Jika tidak disetel, nilai defaultnya adalah outputTokenLimit yang ditentukan dalam spesifikasi Model
.
topP
number
Opsional. Probabilitas kumulatif maksimum token yang akan dipertimbangkan saat melakukan pengambilan sampel.
Model ini menggunakan gabungan pengambilan sampel Top-k dan nucleus.
Token diurutkan berdasarkan probabilitas yang ditetapkan sehingga hanya token yang paling mungkin yang dipertimbangkan. Sampling top-k secara langsung membatasi jumlah maksimum token yang akan dipertimbangkan, sementara sampling Nucleus membatasi jumlah token berdasarkan probabilitas kumulatif.
Catatan: Nilai default bervariasi menurut model. Lihat atribut Model.top_p
dari Model
yang ditampilkan oleh fungsi getModel
.
topK
integer
Opsional. Jumlah maksimum token yang akan dipertimbangkan saat pengambilan sampel.
Model ini menggunakan gabungan pengambilan sampel Top-k dan nucleus.
Pengambilan sampel top-k mempertimbangkan kumpulan topK
token yang paling mungkin. Defaultnya adalah 40.
Catatan: Nilai default bervariasi menurut model. Lihat atribut Model.top_k
dari Model
yang ditampilkan oleh fungsi getModel
.
Isi respons
Jika berhasil, isi respons memuat instance GenerateTextResponse
.
Metode: models.countTextTokens
Menjalankan tokenizer model pada teks dan menampilkan jumlah token.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
Parameter jalur
model
string
Wajib. Nama resource model. Ini berfungsi sebagai ID yang akan digunakan Model.
Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list
.
Format: models/{model}
Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
prompt
object (TextPrompt
)
Wajib. Teks input bentuk bebas yang diberikan ke model sebagai perintah.
Isi respons
Respons dari models.countTextTokens
.
Metode ini menampilkan tokenCount
model untuk prompt
.
Jika berhasil, isi respons memuat data dengan struktur berikut:
tokenCount
integer
Jumlah token yang digunakan model
untuk melakukan tokenisasi prompt
.
Selalu non-negatif.
Representasi JSON |
---|
{ "tokenCount": integer } |
Metode: models.generateMessage
Menghasilkan respons dari model berdasarkan input MessagePrompt
.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
Parameter jalur
model
string
Wajib. Nama model yang akan digunakan.
Format: name=models/{model}
. Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
prompt
object (MessagePrompt
)
Wajib. Input tekstual terstruktur yang diberikan kepada model sebagai perintah.
Dengan perintah yang diberikan, model akan menampilkan apa yang diprediksinya sebagai pesan berikutnya dalam diskusi.
temperature
number
Opsional. Mengontrol keacakan output.
Nilai dapat berkisar lebih dari [0.0,1.0]
, inklusif. Nilai yang lebih dekat dengan 1.0
akan menghasilkan respons yang lebih bervariasi, sedangkan nilai yang lebih dekat dengan 0.0
biasanya akan menghasilkan respons yang tidak terlalu mengejutkan dari model.
candidateCount
integer
Opsional. Jumlah pesan respons yang dihasilkan untuk ditampilkan.
Nilai ini harus antara [1, 8]
, inklusif. Jika tidak disetel, defaultnya adalah 1
.
topP
number
Opsional. Probabilitas kumulatif maksimum token yang akan dipertimbangkan saat melakukan pengambilan sampel.
Model ini menggunakan gabungan pengambilan sampel Top-k dan nucleus.
Pengambilan sampel inti mempertimbangkan kumpulan token terkecil yang jumlah probabilitasnya setidaknya topP
.
topK
integer
Opsional. Jumlah maksimum token yang akan dipertimbangkan saat pengambilan sampel.
Model ini menggunakan gabungan pengambilan sampel Top-k dan nucleus.
Pengambilan sampel top-k mempertimbangkan kumpulan topK
token yang paling mungkin.
Isi respons
Respons dari model.
Hal ini mencakup pesan kandidat dan histori percakapan dalam bentuk pesan yang diurutkan secara kronologis.
Jika berhasil, isi respons memuat data dengan struktur berikut:
candidates[]
object (Message
)
Pesan respons kandidat dari model.
messages[]
object (Message
)
Histori percakapan yang digunakan oleh model.
filters[]
object (ContentFilter
)
Kumpulan metadata pemfilteran konten untuk teks perintah dan respons.
Bagian ini menunjukkan SafetyCategory
yang memblokir kandidat dari respons ini, HarmProbability
terendah yang memicu pemblokiran, dan setelan HarmThreshold untuk kategori tersebut.
Representasi JSON |
---|
{ "candidates": [ { object ( |
Metode: models.countMessageTokens
Menjalankan tokenizer model pada string dan menampilkan jumlah token.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
Parameter jalur
model
string
Wajib. Nama resource model. Ini berfungsi sebagai ID yang akan digunakan Model.
Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list
.
Format: models/{model}
Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
prompt
object (MessagePrompt
)
Wajib. Perintah yang jumlah tokennya akan ditampilkan.
Isi respons
Respons dari models.countMessageTokens
.
Metode ini menampilkan tokenCount
model untuk prompt
.
Jika berhasil, isi respons memuat data dengan struktur berikut:
tokenCount
integer
Jumlah token yang digunakan model
untuk melakukan tokenisasi prompt
.
Selalu non-negatif.
Representasi JSON |
---|
{ "tokenCount": integer } |
Metode: models.embedText
Membuat embedding dari model yang diberi pesan input.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
Parameter jalur
model
string
Wajib. Nama model yang akan digunakan dengan format model=models/{model}. Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
text
string
Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding.
Metode: models.batchEmbedText
Menghasilkan beberapa embedding dari model yang diberi teks input dalam panggilan sinkron.
Endpoint
postinganhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
Parameter jalur
model
string
Wajib. Nama Model
yang akan digunakan untuk membuat embedding. Contoh: models/embedding-gecko-001 Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
texts[]
string
Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding. Batas saat ini adalah 100 teks, yang jika terlampaui akan memunculkan error.
requests[]
object (EmbedTextRequest
)
Opsional. Sematkan permintaan untuk batch. Hanya satu dari texts
atau requests
yang dapat ditetapkan.
Isi respons
Respons terhadap EmbedTextRequest.
Jika berhasil, isi respons memuat data dengan struktur berikut:
embeddings[]
object (Embedding
)
Hanya output. Embedding yang dihasilkan dari teks input.
Representasi JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Permintaan untuk mendapatkan embedding teks dari model.
model
string
Wajib. Nama model yang akan digunakan dengan format model=models/{model}.
text
string
Opsional. Teks input bentuk bebas yang akan diubah model menjadi embedding.
Representasi JSON |
---|
{ "model": string, "text": string } |
ContentFilter
Metadata pemfilteran konten yang terkait dengan pemrosesan satu permintaan.
ContentFilter berisi alasan dan string pendukung opsional. Alasannya mungkin tidak ditentukan.
reason
enum (BlockedReason
)
Alasan konten diblokir selama pemrosesan permintaan.
message
string
String yang menjelaskan perilaku pemfilteran secara lebih mendetail.
Representasi JSON |
---|
{
"reason": enum ( |
BlockedReason
Daftar alasan mengapa konten mungkin telah diblokir.
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Alasan pemblokiran tidak ditentukan. |
SAFETY |
Konten diblokir oleh setelan keamanan. |
OTHER |
Konten diblokir, tetapi alasannya tidak dikategorikan. |
Embedding
Daftar float yang merepresentasikan penyematan.
value[]
number
Nilai embedding.
Representasi JSON |
---|
{ "value": [ number ] } |
Pesan
Unit dasar teks terstruktur.
Message
mencakup author
dan content
dari Message
.
author
digunakan untuk memberi tag pada pesan saat pesan tersebut dimasukkan ke model sebagai teks.
content
string
Wajib. Konten teks Message
terstruktur.
citationMetadata
object (CitationMetadata
)
Hanya output. Informasi kutipan untuk content
yang dibuat model dalam Message
ini.
Jika Message
ini dihasilkan sebagai output dari model, kolom ini dapat diisi dengan informasi atribusi untuk teks apa pun yang disertakan dalam content
. Kolom ini hanya digunakan pada output.
Representasi JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Semua teks input terstruktur yang diteruskan ke model sebagai perintah.
MessagePrompt
berisi kumpulan kolom terstruktur yang memberikan konteks untuk percakapan, contoh pasangan pesan input pengguna/output model yang mempersiapkan model untuk merespons dengan berbagai cara, dan histori percakapan atau daftar pesan yang merepresentasikan giliran percakapan antara pengguna dan model.
context
string
Opsional. Teks yang harus disediakan ke model terlebih dahulu untuk melandasi respons.
Jika tidak kosong, context
ini akan diberikan ke model terlebih dahulu sebelum examples
dan messages
. Saat menggunakan context
, pastikan untuk memberikannya dengan setiap permintaan untuk mempertahankan kontinuitas.
Kolom ini dapat berupa deskripsi perintah Anda kepada model untuk membantu memberikan konteks dan memandu respons. Contoh: "Terjemahkan frasa dari bahasa Inggris ke bahasa Prancis" atau "Berdasarkan pernyataan yang diberikan, klasifikasikan sentimennya sebagai senang, sedih, atau netral".
Apa pun yang disertakan dalam kolom ini akan lebih diprioritaskan daripada histori pesan jika total ukuran input melebihi inputTokenLimit
model dan permintaan input dipangkas.
examples[]
object (Example
)
Opsional. Contoh hasil yang harus dihasilkan model.
Hal ini mencakup input pengguna dan respons yang harus ditiru oleh model.
examples
ini diperlakukan sama dengan pesan percakapan, kecuali bahwa examples
ini lebih diutamakan daripada histori di messages
: Jika total ukuran input melebihi inputTokenLimit
model, input akan dipangkas. Item akan dihapus dari messages
sebelum examples
.
messages[]
object (Message
)
Wajib. Snapshot histori percakapan terbaru yang diurutkan secara kronologis.
Giliran bergantian antara dua penulis.
Jika total ukuran input melebihi inputTokenLimit
model, input akan dipangkas: Item terlama akan dihapus dari messages
.
Contoh
Contoh input/output yang digunakan untuk memberikan petunjuk kepada Model.
Contoh ini menunjukkan cara model harus merespons atau memformat responsnya.
input
object (Message
)
Wajib. Contoh input Message
dari pengguna.
output
object (Message
)
Wajib. Contoh output yang harus dihasilkan model berdasarkan input yang diberikan.
GenerateTextResponse
Respons dari model, termasuk penyelesaian kandidat.
candidates[]
object (TextCompletion
)
Respons kandidat dari model.
filters[]
object (ContentFilter
)
Kumpulan metadata pemfilteran konten untuk teks perintah dan respons.
Bagian ini menunjukkan SafetyCategory
yang memblokir kandidat dari respons ini, HarmProbability
terendah yang memicu pemblokiran, dan setelan HarmThreshold untuk kategori tersebut. Hal ini menunjukkan perubahan terkecil pada SafetySettings
yang diperlukan untuk membuka blokir setidaknya 1 respons.
Pemblokiran dikonfigurasi oleh SafetySettings
dalam permintaan (atau SafetySettings
default API).
safetyFeedback[]
object (SafetyFeedback
)
Menampilkan masukan keamanan apa pun yang terkait dengan pemfilteran konten.
Representasi JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Teks output yang ditampilkan dari model.
output
string
Hanya output. Teks yang dihasilkan yang ditampilkan dari model.
safetyRatings[]
object (SafetyRating
)
Rating untuk keamanan respons.
Maksimal ada satu rating per kategori.
citationMetadata
object (CitationMetadata
)
Hanya output. Informasi kutipan untuk output
yang dibuat model dalam TextCompletion
ini.
Kolom ini dapat diisi dengan informasi atribusi untuk teks apa pun yang disertakan dalam output
.
Representasi JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Masukan keamanan untuk seluruh permintaan.
Kolom ini diisi jika konten dalam input dan/atau respons diblokir karena setelan keamanan. SafetyFeedback mungkin tidak ada untuk setiap HarmCategory. Setiap SafetyFeedback akan menampilkan setelan keamanan yang digunakan oleh permintaan serta HarmProbability terendah yang harus diizinkan untuk menampilkan hasil.
rating
object (SafetyRating
)
Rating keamanan dievaluasi dari konten.
setting
object (SafetySetting
)
Setelan keamanan yang diterapkan pada permintaan.
Representasi JSON |
---|
{ "rating": { object ( |