Menghasilkan respons dari model yang diberi pesan input.
Permintaan HTTP
POST https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
URL menggunakan sintaksis gRPC Transcoding.
Parameter jalur
Parameter | |
---|---|
model |
Wajib. Nama |
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
Representasi JSON |
---|
{ "prompt": { object ( |
Kolom | |
---|---|
prompt |
Wajib. Teks input bentuk bebas yang diberikan ke model sebagai prompt. Setelah diminta, model akan menghasilkan respons TextCompletion yang diprediksinya sebagai penyelesaian teks input. |
safetySettings[] |
Opsional. Daftar instance yang akan diterapkan pada |
stopSequences[] |
Rangkaian karakter (hingga 5) yang akan menghentikan pembuatan output. Jika ditetapkan, API akan berhenti saat urutan perhentian ditampilkan pertama. Urutan penghentian tidak akan disertakan sebagai bagian dari respons. |
temperature |
Opsional. Mengontrol keacakan output. Catatan: Nilai default bervariasi menurut model, lihat atribut Nilai dapat berkisar dari [0.0,1.0], inklusif. Nilai yang mendekati 1,0 akan menghasilkan respons yang lebih bervariasi dan kreatif, sedangkan nilai yang mendekati 0,0 biasanya akan menghasilkan respons yang lebih jelas dari model. |
candidateCount |
Opsional. Jumlah respons yang dihasilkan yang akan ditampilkan. Nilai ini harus antara [1, 8], inklusif. Jika tidak disetel, setelan ini akan ditetapkan secara default ke 1. |
maxOutputTokens |
Opsional. Jumlah maksimum token yang akan disertakan dalam kandidat. Jika tidak disetel, setelan ini akan ditetapkan secara default ke outputTokenLimit yang ditentukan dalam spesifikasi |
topP |
Opsional. Probabilitas kumulatif token maksimum yang perlu dipertimbangkan saat mengambil sampel. Model ini menggunakan gabungan pengambilan sampel Top-k dan nukleus. Token diurutkan berdasarkan probabilitas yang ditetapkan sehingga hanya token yang paling mungkin yang dipertimbangkan. Pengambilan sampel top-k secara langsung membatasi jumlah maksimum token yang dapat dipertimbangkan, sementara pengambilan sampel Nucleus membatasi jumlah token berdasarkan probabilitas kumulatif. Catatan: Nilai default bervariasi menurut model, lihat atribut |
topK |
Opsional. Jumlah token maksimum yang perlu dipertimbangkan saat pengambilan sampel. Model ini menggunakan gabungan pengambilan sampel Top-k dan nukleus. Pengambilan sampel top-k mempertimbangkan kumpulan token Catatan: Nilai default bervariasi menurut model, lihat atribut |
Isi respons
Jika berhasil, isi respons akan berisi instance GenerateTextResponse
.
Cakupan otorisasi
Memerlukan salah satu cakupan OAuth berikut:
https://www.googleapis.com/auth/generative-language
https://www.googleapis.com/auth/generative-language.tuning
https://www.googleapis.com/auth/generative-language.tuning.readonly
https://www.googleapis.com/auth/generative-language.retriever
https://www.googleapis.com/auth/generative-language.retriever.readonly
Untuk informasi selengkapnya, lihat Ringkasan Autentikasi.