Metode: models.countTokens
- Endpoint
- Parameter jalur
- Isi permintaan
- Isi respons
- Cakupan otorisasi
- Contoh permintaan
- GenerateContentRequest
Menjalankan tokenizer model pada konten input dan menampilkan jumlah token.
Endpoint
posting
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTokens
Parameter jalur
model
string
Wajib. Nama resource model. Ini berfungsi sebagai ID yang akan digunakan Model.
Nama ini harus cocok dengan nama model yang ditampilkan oleh metode models.list
.
Format: models/{model}
Formatnya adalah models/{model}
.
Isi permintaan
Isi permintaan memuat data dengan struktur berikut:
contents[]
object (Content
)
Opsional. Input yang diberikan ke model sebagai prompt. Kolom ini diabaikan jika generateContentRequest
ditetapkan.
generateContentRequest
object (GenerateContentRequest
)
Opsional. Keseluruhan input yang diberikan ke model. models.countTokens akan menghitung perintah, panggilan fungsi, dll.
Contoh permintaan
Teks
Python
Node.js
Shell
Kotlin
Swift
Dart
Java
Chat
Python
Node.js
Shell
Kotlin
Swift
Dart
Java
Media inline
Python
Node.js
Kotlin
Swift
Dart
Java
File
Python
Node.js
Cache
Python
Node.js
Petunjuk Sistem
Python
Node.js
Kotlin
Swift
Dart
Java
Alat
Python
Node.js
Kotlin
Swift
Dart
Java
Isi respons
Respons dari models.countTokens
.
Metode ini menampilkan tokenCount
model untuk prompt
.
Jika berhasil, isi respons memuat data dengan struktur berikut:
totalTokens
integer
Jumlah token yang menjadi token model
sebagai token prompt
.
Selalu non-negatif. Jika cacheContent ditetapkan, ini adalah ukuran perintah total yang efektif. Misalnya termasuk jumlah token dalam konten yang di-cache.
Representasi JSON |
---|
{ "totalTokens": integer } |
GenerateContentRequest
Permintaan untuk menghasilkan penyelesaian dari model.
Representasi JSON |
---|
{ "model": string, "contents": [ { object ( |
model
string
Wajib. Nama Model
yang akan digunakan untuk menghasilkan penyelesaian.
Format: name=models/{model}
.
contents[]
object (Content
)
Wajib. Konten percakapan saat ini dengan model.
Untuk kueri satu putaran, ini adalah instance tunggal. Untuk kueri multi-giliran, ini adalah kolom berulang yang berisi histori percakapan + permintaan terbaru.
tools[]
object (Tool
)
Opsional. Daftar Tools
yang dapat digunakan model untuk menghasilkan respons berikutnya.
Tool
adalah potongan kode yang memungkinkan sistem berinteraksi dengan sistem eksternal untuk melakukan tindakan, atau serangkaian tindakan, di luar pengetahuan dan cakupan model. Satu-satunya alat yang didukung saat ini adalah Function
.
toolConfig
object (ToolConfig
)
Opsional. Konfigurasi alat untuk setiap Tool
yang ditentukan dalam permintaan.
safetySettings[]
object (SafetySetting
)
Opsional. Daftar instance SafetySetting
unik untuk memblokir konten tidak aman.
Hal ini akan diterapkan di GenerateContentRequest.contents
dan GenerateContentResponse.candidates
. Tidak boleh ada lebih dari satu setelan untuk setiap jenis SafetyCategory
. API akan memblokir semua konten dan respons yang gagal memenuhi nilai minimum yang ditetapkan oleh setelan ini. Daftar ini menggantikan setelan default untuk setiap SafetyCategory
yang ditentukan di safetySettings. Jika tidak ada SafetySetting
untuk SafetyCategory
tertentu yang disediakan dalam daftar, API akan menggunakan setelan keamanan default untuk kategori tersebut. Kategori bahaya HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT didukung.
systemInstruction
object (Content
)
Opsional. Petunjuk sistem set developer. Saat ini, teks saja.
generationConfig
object (GenerationConfig
)
Opsional. Opsi konfigurasi untuk pembuatan dan output model.
cachedContent
string
Opsional. Nama konten yang di-cache yang digunakan sebagai konteks untuk menampilkan prediksi. Catatan: hanya digunakan dalam penyimpanan cache eksplisit, sehingga pengguna dapat mengontrol konten dalam cache (misalnya, konten apa yang perlu disimpan dalam cache) dan menikmati jaminan penghematan biaya. Format: cachedContents/{cachedContent}