ดูคำแนะนำโดยละเอียดเกี่ยวกับการนับโทเค็นโดยใช้ Gemini API รวมถึงวิธีนับรูปภาพ เสียง และวิดีโอได้ที่คำแนะนำในการนับโทเค็นและสูตรการแก้ปัญหาที่เกี่ยวข้อง
เมธอด: models.countTokens
เรียกใช้โทเค็นไนเซอร์ของโมเดลในอินพุต Content และแสดงผลจำนวนโทเค็น ดูข้อมูลเพิ่มเติมเกี่ยวกับโทเค็นได้ในคู่มือโทเค็น
ปลายทาง
posthttps:
พารามิเตอร์เส้นทาง
model
string
ต้องระบุ ชื่อทรัพยากรของโมเดล ซึ่งจะใช้เป็นรหัสให้โมเดลใช้
ชื่อนี้ควรตรงกับชื่อโมเดลที่เมธอด models.list แสดงผล
รูปแบบ: models/{model} ซึ่งจะอยู่ในรูปแบบ models/{model}
เนื้อความของคำขอ
เนื้อหาของคำขอมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
contents[]
object (Content)
ไม่บังคับ อินพุตที่ป้อนให้กับโมเดลเป็นพรอมต์ ระบบจะไม่สนใจช่องนี้เมื่อตั้งค่า generateContentRequest
generateContentRequest
object (GenerateContentRequest)
ไม่บังคับ อินพุตโดยรวมที่ส่งไปยัง Model ซึ่งรวมถึงพรอมต์และข้อมูลการควบคุมโมเดลอื่นๆ เช่น คำสั่งของระบบ และ/หรือการประกาศฟังก์ชันสำหรับการเรียกใช้ฟังก์ชัน Models/Contents และ generateContentRequests จะใช้ร่วมกันไม่ได้ คุณจะส่ง Model + Content หรือ generateContentRequest ก็ได้ แต่จะส่งทั้ง 2 อย่างพร้อมกันไม่ได้
ตัวอย่างคำขอ
ข้อความ
Python
Node.js
Go
เปลือกหอย
แชท
Python
Node.js
Go
เปลือกหอย
สื่อในบรรทัด
Python
Node.js
Go
เปลือกหอย
วิดีโอ
Python
Node.js
Go
เปลือกหอย
Python
แคช
Python
Node.js
Go
คำสั่งของระบบ
Go
เครื่องมือ
Java
เนื้อหาการตอบกลับ
คำตอบจาก models.countTokens
โดยจะแสดง tokenCount ของโมเดลสำหรับ prompt
หากทำสำเร็จ เนื้อหาการตอบกลับจะมีข้อมูลซึ่งมีโครงสร้างดังต่อไปนี้
totalTokens
integer
จำนวนโทเค็นที่โทเค็น Model โทเค็น prompt เป็นค่าที่ไม่เป็นลบเสมอ
cachedContentTokenCount
integer
จํานวนโทเค็นในส่วนที่แคชของพรอมต์ (เนื้อหาที่แคช)
promptTokensDetails[]
object (ModalityTokenCount)
เอาต์พุตเท่านั้น รายการรูปแบบที่ประมวลผลในอินพุตคำขอ
cacheTokensDetails[]
object (ModalityTokenCount)
เอาต์พุตเท่านั้น รายการรูปแบบที่ประมวลผลในเนื้อหาที่แคชไว้
| การแสดง JSON | 
|---|
| { "totalTokens": integer, "cachedContentTokenCount": integer, "promptTokensDetails": [ { object ( |