Gemini dan model AI generatif lainnya memproses input dan output pada perincian yang disebut token.
Untuk model Gemini, satu token setara dengan sekitar 4 karakter. 100 token setara dengan sekitar 60-80 kata dalam bahasa Inggris.
Tentang token
Token dapat berupa karakter tunggal seperti z atau seluruh kata seperti cat. Kata-kata panjang
dipecah menjadi beberapa token. Kumpulan semua token yang digunakan oleh model disebut kosakata, dan proses membagi teks menjadi token disebut tokenisasi.
Jika penagihan diaktifkan, biaya panggilan ke Gemini API ditentukan sebagian oleh jumlah token input dan output, jadi mengetahui cara menghitung token dapat membantu.
Menjumlahkan token
Semua input ke dan output dari Gemini API di-tokenisasi, termasuk teks, file gambar, dan modalitas non-teks lainnya.
Anda dapat menghitung token dengan cara berikut:
Panggil
countTokensdengan input permintaan.
Ini menampilkan jumlah total token dalam input saja. Anda dapat melakukan panggilan ini sebelum mengirim input ke model untuk memeriksa ukuran permintaan Anda.Gunakan atribut
usageMetadatapada objekresponsesetelah memanggilgenerate_content.
Ini menampilkan jumlah total token dalam input dan output:totalTokenCount.
Fungsi ini juga menampilkan jumlah token input dan output secara terpisah:promptTokenCount(token input) dancandidatesTokenCount(token output). Jika Anda menggunakan Context caching, jumlah token yang di-cache akan ada dicachedContentTokenCount.Jika Anda menggunakan model penalaran seperti model 2.5, token yang digunakan selama proses penalaran akan ditampilkan di
thoughtsTokenCount.
Menghitung token teks
Jika Anda memanggil countTokens dengan input khusus teks, fungsi ini akan menampilkan jumlah token
teks di input saja (totalTokens). Anda dapat melakukan panggilan ini sebelum
memanggil generateContent untuk memeriksa ukuran permintaan Anda.
Opsi lainnya adalah memanggil generateContent, lalu menggunakan atribut usageMetadata
pada objek response untuk mendapatkan hal berikut:
- Jumlah token terpisah dari input (
promptTokenCount), konten yang di-cache (cachedContentTokenCount), dan output (candidatesTokenCount) - Jumlah token untuk proses berpikir (
thoughtsTokenCount) - Jumlah total token di input dan output
(
totalTokenCount)
// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const prompt = "The quick brown fox jumps over the lazy dog.";
const countTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: prompt,
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-2.0-flash",
contents: prompt,
});
console.log(generateResponse.usageMetadata);
Menghitung token multi-turn (chat)
Jika Anda memanggil countTokens dengan histori chat, fungsi ini akan menampilkan jumlah token total teks dari setiap peran dalam chat (totalTokens).
Opsi lainnya adalah memanggil sendMessage, lalu menggunakan atribut usageMetadata
pada objek response untuk mendapatkan hal berikut:
- Jumlah token terpisah dari input (
promptTokenCount), konten yang di-cache (cachedContentTokenCount), dan output (candidatesTokenCount) - Jumlah token untuk proses berpikir (
thoughtsTokenCount) - Jumlah total token di input dan output
(
totalTokenCount)
Untuk memahami seberapa besar giliran percakapan Anda berikutnya, Anda perlu menambahkan
giliran tersebut ke histori saat Anda memanggil countTokens.
// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
// Initial chat history.
const history = [
{ role: "user", parts: [{ text: "Hi my name is Bob" }] },
{ role: "model", parts: [{ text: "Hi Bob!" }] },
];
const chat = ai.chats.create({
model: "gemini-2.0-flash",
history: history,
});
// Count tokens for the current chat history.
const countTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: chat.getHistory(),
});
console.log(countTokensResponse.totalTokens);
const chatResponse = await chat.sendMessage({
message: "In one sentence, explain how a computer works to a young child.",
});
console.log(chatResponse.usageMetadata);
// Add an extra user message to the history.
const extraMessage = {
role: "user",
parts: [{ text: "What is the meaning of life?" }],
};
const combinedHistory = chat.getHistory();
combinedHistory.push(extraMessage);
const combinedCountTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: combinedHistory,
});
console.log(
"Combined history token count:",
combinedCountTokensResponse.totalTokens,
);
Menghitung token multimodal
Semua input ke Gemini API di-tokenisasi, termasuk teks, file gambar, dan modalitas non-teks lainnya. Perhatikan poin-poin penting tingkat tinggi berikut tentang tokenisasi input multimodal selama pemrosesan oleh Gemini API:
Dengan Gemini 2.0, input gambar dengan kedua dimensi <=384 piksel dihitung sebagai 258 token. Gambar yang lebih besar dalam satu atau kedua dimensi akan dipangkas dan diskalakan sesuai kebutuhan menjadi petak 768x768 piksel, yang masing-masing dihitung sebagai 258 token. Sebelum Gemini 2.0, gambar menggunakan 258 token tetap.
File video dan audio dikonversi menjadi token dengan tarif tetap berikut: video dengan 263 token per detik dan audio dengan 32 token per detik.
Resolusi media
Pratinjau Gemini 3 Pro memperkenalkan kontrol terperinci atas pemrosesan visi multimodal dengan parameter
media_resolution. Parameter media_resolution menentukan
jumlah maksimum token yang dialokasikan per gambar input atau frame video.
Resolusi yang lebih tinggi meningkatkan kemampuan model untuk membaca teks kecil atau mengidentifikasi detail kecil, tetapi meningkatkan penggunaan token dan latensi.
Untuk mengetahui detail selengkapnya tentang parameter dan pengaruhnya terhadap penghitungan token, lihat panduan resolusi media.
File gambar
Jika Anda memanggil countTokens dengan input teks dan gambar, fungsi ini akan menampilkan jumlah token gabungan dari teks dan gambar hanya dalam input (totalTokens). Anda dapat melakukan panggilan ini sebelum memanggil generateContent untuk memeriksa ukuran permintaan Anda. Anda juga dapat memanggil countTokens secara opsional pada teks dan file secara terpisah.
Opsi lainnya adalah memanggil generateContent, lalu menggunakan atribut usageMetadata
pada objek response untuk mendapatkan hal berikut:
- Jumlah token terpisah dari input (
promptTokenCount), konten yang di-cache (cachedContentTokenCount), dan output (candidatesTokenCount) - Jumlah token untuk proses berpikir (
thoughtsTokenCount) - Jumlah total token di input dan output
(
totalTokenCount)
Contoh yang menggunakan gambar yang diupload dari File API:
// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const prompt = "Tell me about this image";
const organ = await ai.files.upload({
file: path.join(media, "organ.jpg"),
config: { mimeType: "image/jpeg" },
});
const countTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: createUserContent([
prompt,
createPartFromUri(organ.uri, organ.mimeType),
]),
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-2.0-flash",
contents: createUserContent([
prompt,
createPartFromUri(organ.uri, organ.mimeType),
]),
});
console.log(generateResponse.usageMetadata);
Contoh yang menyediakan gambar sebagai data inline:
// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const prompt = "Tell me about this image";
const imageBuffer = fs.readFileSync(path.join(media, "organ.jpg"));
// Convert buffer to base64 string.
const imageBase64 = imageBuffer.toString("base64");
// Build contents using createUserContent and createPartFromBase64.
const contents = createUserContent([
prompt,
createPartFromBase64(imageBase64, "image/jpeg"),
]);
const countTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: contents,
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-2.0-flash",
contents: contents,
});
console.log(generateResponse.usageMetadata);
File video atau audio
Audio dan video masing-masing dikonversi menjadi token dengan rasio tetap berikut:
- Video: 263 token per detik
- Audio: 32 token per detik
Jika Anda memanggil countTokens dengan input teks dan video/audio, fungsi ini akan menampilkan
jumlah token gabungan dari teks dan file video/audio hanya di input
(totalTokens). Anda dapat melakukan panggilan ini sebelum memanggil generateContent untuk
memeriksa ukuran permintaan Anda. Anda juga dapat secara opsional memanggil countTokens pada
teks dan file secara terpisah.
Opsi lainnya adalah memanggil generateContent, lalu menggunakan atribut usageMetadata
pada objek response untuk mendapatkan hal berikut:
- Jumlah token terpisah dari input (
promptTokenCount), konten yang di-cache (cachedContentTokenCount), dan output (candidatesTokenCount) - Jumlah token untuk proses berpikir (
thoughtsTokenCount) - Jumlah total token di input dan output
(
totalTokenCount)
// Make sure to include the following import:
// import {GoogleGenAI} from '@google/genai';
const ai = new GoogleGenAI({ apiKey: process.env.GEMINI_API_KEY });
const prompt = "Tell me about this video";
let videoFile = await ai.files.upload({
file: path.join(media, "Big_Buck_Bunny.mp4"),
config: { mimeType: "video/mp4" },
});
// Poll until the video file is completely processed (state becomes ACTIVE).
while (!videoFile.state || videoFile.state.toString() !== "ACTIVE") {
console.log("Processing video...");
console.log("File state: ", videoFile.state);
await sleep(5000);
videoFile = await ai.files.get({ name: videoFile.name });
}
const countTokensResponse = await ai.models.countTokens({
model: "gemini-2.0-flash",
contents: createUserContent([
prompt,
createPartFromUri(videoFile.uri, videoFile.mimeType),
]),
});
console.log(countTokensResponse.totalTokens);
const generateResponse = await ai.models.generateContent({
model: "gemini-2.0-flash",
contents: createUserContent([
prompt,
createPartFromUri(videoFile.uri, videoFile.mimeType),
]),
});
console.log(generateResponse.usageMetadata);
Petunjuk dan alat sistem
Petunjuk dan alat sistem juga dihitung dalam jumlah total token untuk input.
Jika Anda menggunakan petunjuk sistem, jumlah totalTokens akan bertambah untuk mencerminkan penambahan systemInstruction.
Jika Anda menggunakan panggilan fungsi, jumlah totalTokens akan bertambah untuk mencerminkan
penambahan tools.