Gemini 3.1 Flash-Lite Preview

Notre modèle multimodal le plus économique, qui offre les performances les plus rapides pour les tâches légères à haute fréquence. Gemini 3.1 Flash-Lite est idéal pour les tâches agentiques à grand volume, l'extraction de données simples et les applications à très faible latence où le budget et la vitesse sont les principales contraintes.

gemini-3.1-flash-lite-preview

Propriété Description
Code du modèle gemini-3.1-flash-lite-preview
Types de données acceptés pour

Entrées

Texte, image, vidéo, audio et PDF

Résultat

Texte

Limites de jetons[*]

Limite de jetons d'entrée

1 048 576

Limite de jetons de sortie

65 536

 Fonctionnalités

Génération audio

Not supported

API Batch

Compatible

Mise en cache

Compatible

Exécution de code

Compatible

Utilisation de l'ordinateur

Not supported

Recherche de fichiers

Compatible

Appel de fonction

Compatible

Ancrage avec Google Maps

Not supported

Génération d'images

Not supported

API Live

Not supported

Ancrage de recherche

Compatible

Sorties structurées

Compatible

Raisonnement

Compatible

Contexte de l'URL

Compatible

Versions
Pour en savoir plus, consultez les schémas de version de modèle.
  • Preview: gemini-3.1-flash-lite-preview
Dernière mise à jour Mars 2026
Date limite des connaissances Janvier 2025

Guide du développeur

Gemini 3.1 Flash-Lite est idéal pour gérer des tâches simples à grande échelle. Voici quelques cas d'utilisation les mieux adaptés à Gemini 3.1 Flash-Lite :

  • Traduction : traduction rapide, économique et à grand volume, comme le traitement à grande échelle des messages de chat, des avis et des demandes d'assistance. Vous pouvez utiliser des instructions système pour limiter la sortie au texte traduit, sans aucun commentaire supplémentaire :

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • Transcription : traitez des enregistrements, des notes vocales ou tout contenu audio pour lequel vous avez besoin d'une transcription textuelle sans avoir à créer un pipeline de reconnaissance vocale distinct. Il est compatible avec les entrées multimodales. Vous pouvez donc transmettre directement des fichiers audio pour la transcription :

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • Tâches agentiques et extraction de données légères : extraction d'entités, classification et pipelines de traitement de données légers compatibles avec la sortie JSON structurée. Par exemple, extraire des données structurées d'un avis client sur un site d'e-commerce :

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • Traitement et résumé de documents : analysez des PDF et renvoyez des résumés concis, par exemple pour créer un pipeline de traitement de documents ou trier rapidement les fichiers entrants :

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • Routage de modèles : utilisez un modèle à faible latence et à faible coût comme classificateur qui route les requêtes vers le modèle approprié en fonction de la complexité de la tâche. Il s'agit d'un véritable modèle de production : la CLI Gemini Open Source utilise Flash-Lite pour classer la complexité des tâches et les acheminer vers Flash ou Pro en conséquence.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • Réflexion : pour améliorer la précision des tâches qui bénéficient d'un raisonnement étape par étape, configurez la réflexion afin que le modèle consacre davantage de ressources de calcul au raisonnement interne avant de produire le résultat final :

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)