Gemini и другие генеративные модели ИИ обрабатывают входные и выходные данные с детализацией, называемой токеном .
О токенах
Токены могут представлять собой отдельные символы, например, z , или целые слова, например, cat . Длинные слова разбиваются на несколько токенов. Набор всех токенов, используемых моделью, называется словарём, а процесс разбиения текста на токены — токенизацией .
Для моделей Gemini один токен эквивалентен примерно 4 символам. 100 токенов эквивалентны примерно 60–80 английским словам.
При включенной тарификации стоимость вызова API Gemini частично определяется количеством входящих и исходящих токенов, поэтому полезно знать, как подсчитывать токены.
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2025-08-22 UTC."],[],[],null,["# Understand and count tokens\n\nPython JavaScript Go\n\n\u003cbr /\u003e\n\nGemini and other generative AI models process input and output at a granularity\ncalled a *token*.\n\nAbout tokens\n------------\n\nTokens can be single characters like `z` or whole words like `cat`. Long words\nare broken up into several tokens. The set of all tokens used by the model is\ncalled the vocabulary, and the process of splitting text into tokens is called\n*tokenization*.\n\nFor Gemini models, a token is equivalent to about 4 characters.\n100 tokens is equal to about 60-80 English words.\n\nWhen billing is enabled, the [cost of a call to the Gemini API](/pricing) is\ndetermined in part by the number of input and output tokens, so knowing how to\ncount tokens can be helpful."]]