Наша наиболее экономичная многомодальная модель, обеспечивающая самую высокую производительность для высокочастотных и несложных задач. Gemini 3.1 Flash-Lite лучше всего подходит для задач с большим объемом агентской обработки, простого извлечения данных и приложений с чрезвычайно низкой задержкой, где бюджет и скорость являются основными ограничениями.
gemini-3.1-flash-lite-preview
| Свойство | Описание |
|---|---|
| Код модели | gemini-3.1-flash-lite-preview |
| Поддерживаемые типы данных | Входные данные Текст, изображение, видео, аудио и PDF Выход Текст |
| Ограничения на количество токенов [*] | Ограничение на количество введенных токенов 1 048 576 лимит выходных токенов 65,536 |
| Возможности | Генерация аудио Не поддерживается Пакетный API Поддерживается Кэширование Поддерживается Выполнение кода Поддерживается Использование компьютера Не поддерживается Поиск файлов Поддерживается Вызов функции Поддерживается Определить местоположение с помощью Google Maps Не поддерживается генерация изображений Не поддерживается API в реальном времени Не поддерживается Поиск заземления Поддерживается Структурированные выходные данные Поддерживается Мышление Поддерживается контекст URL Поддерживается |
| версии |
|
| Последнее обновление | Март 2026 г. |
| Порог знаний | Январь 2025 г. |
Руководство разработчика
Gemini 3.1 Flash-Lite лучше всего подходит для решения простых задач в больших масштабах. Вот несколько сценариев использования, для которых Gemini 3.1 Flash-Lite наиболее эффективен:
Перевод : Быстрый, недорогой и высокопроизводительный перевод, например, обработка сообщений в чате, отзывов и заявок в службу поддержки в больших масштабах. Вы можете использовать инструкции системы для ограничения вывода только переведенным текстом без дополнительных комментариев:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)Транскрипция : Обработка аудиозаписей, голосовых заметок или любого аудиоконтента, для которого требуется текстовая расшифровка, без запуска отдельного конвейера преобразования речи в текст. Поддерживает многомодальные входные данные, позволяя передавать аудиофайлы напрямую для транскрипции.
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)Легковесные агентные задачи и извлечение данных : извлечение сущностей, классификация и легковесные конвейеры обработки данных с поддержкой структурированного вывода в формате JSON. Например, извлечение структурированных данных из отзывов покупателей в интернет-магазине:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)Обработка и обобщение документов : анализ PDF-файлов и предоставление кратких резюме, например, для построения конвейера обработки документов или быстрой сортировки входящих файлов.
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)Маршрутизация по моделям : используйте модель с низкой задержкой и низкой стоимостью в качестве классификатора, который направляет запросы к соответствующей модели в зависимости от сложности задачи. Это реальный шаблон в производственной среде — открытый CLI Gemini использует Flash-Lite для классификации сложности задач и соответствующей маршрутизации запросов к Flash или Pro.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)Мышление : Для повышения точности в задачах, требующих пошагового анализа, настройте мышление таким образом, чтобы модель тратила дополнительные вычислительные ресурсы на внутренний анализ перед выдачей окончательного результата:
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)