Notre modèle multimodal le plus économique, qui offre les performances les plus rapides pour les tâches légères à haute fréquence. Gemini 3.1 Flash-Lite est idéal pour les tâches agentiques à grand volume, l'extraction de données simples et les applications à très faible latence où le budget et la vitesse sont les principales contraintes.
gemini-3.1-flash-lite-preview
| Propriété | Description |
|---|---|
| Code du modèle | gemini-3.1-flash-lite-preview |
| Types de données acceptés pour |
Entrées Texte, image, vidéo, audio et PDF Résultat Texte |
| Limites de jetons[*] |
Limite de jetons d'entrée 1 048 576 Limite de jetons de sortie 65 536 |
| Fonctionnalités |
Génération audio Not supported API Batch Compatible Mise en cache Compatible Exécution de code Compatible Utilisation de l'ordinateur Not supported Recherche de fichiers Compatible Appel de fonction Compatible Ancrage avec Google Maps Not supported Génération d'images Not supported API Live Not supported Ancrage de recherche Compatible Sorties structurées Compatible Raisonnement Compatible Contexte de l'URL Compatible |
| Versions |
|
| Dernière mise à jour | Mars 2026 |
| Date limite des connaissances | Janvier 2025 |
Guide du développeur
Gemini 3.1 Flash-Lite est idéal pour gérer des tâches simples à grande échelle. Voici quelques cas d'utilisation les mieux adaptés à Gemini 3.1 Flash-Lite :
Traduction : traduction rapide, économique et à grand volume, comme le traitement à grande échelle des messages de chat, des avis et des demandes d'assistance. Vous pouvez utiliser des instructions système pour limiter la sortie au texte traduit, sans aucun commentaire supplémentaire :
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)Transcription : traitez des enregistrements, des notes vocales ou tout contenu audio pour lequel vous avez besoin d'une transcription textuelle sans avoir à créer un pipeline de reconnaissance vocale distinct. Il est compatible avec les entrées multimodales. Vous pouvez donc transmettre directement des fichiers audio pour la transcription :
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)Tâches agentiques et extraction de données légères : extraction d'entités, classification et pipelines de traitement de données légers compatibles avec la sortie JSON structurée. Par exemple, extraire des données structurées d'un avis client sur un site d'e-commerce :
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)Traitement et résumé de documents : analysez des PDF et renvoyez des résumés concis, par exemple pour créer un pipeline de traitement de documents ou trier rapidement les fichiers entrants :
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)Routage de modèles : utilisez un modèle à faible latence et à faible coût comme classificateur qui route les requêtes vers le modèle approprié en fonction de la complexité de la tâche. Il s'agit d'un véritable modèle de production : la CLI Gemini Open Source utilise Flash-Lite pour classer la complexité des tâches et les acheminer vers Flash ou Pro en conséquence.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)Réflexion : pour améliorer la précision des tâches qui bénéficient d'un raisonnement étape par étape, configurez la réflexion afin que le modèle consacre davantage de ressources de calcul au raisonnement interne avant de produire le résultat final :
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)