Gemini 3.1 Flash-Lite

Gemini 3.1 Flash-Lite adalah model multimodal berlatensi rendah dan hemat biaya yang dioptimalkan untuk tugas ringan dan berfrekuensi tinggi. Model ini mendukung input teks, gambar, video, audio, dan PDF, serta dirancang untuk alur kerja agen dengan volume tinggi, ekstraksi data sederhana, dan aplikasi yang latensi dan biaya API-nya merupakan batasan utama.

gemini-3.1-flash-lite

Properti Deskripsi
Kode model gemini-3.1-flash-lite
Jenis data yang didukung

Input

Teks, Gambar, Video, Audio, dan PDF

Output

Teks

Batas token[*]

Batas token input

1.048.576

Batas token output

65.536

Kemampuan

Pembuatan audio

Tidak didukung

Batch API

Didukung

Menyimpan ke cache

Didukung

Eksekusi kode

Didukung

Penggunaan komputer

Tidak didukung

Penelusuran file

Didukung

Inferensi fleksibel

Didukung

Panggilan fungsi

Didukung

Grounding dengan Google Maps

Didukung

Pembuatan gambar

Tidak didukung

Live API

Tidak didukung

Inferensi prioritas

Didukung

Grounding penelusuran

Didukung

Output terstruktur

Didukung

Penalaran

Didukung

Konteks URL

Didukung

Versi
Baca pola versi model untuk mengetahui detail selengkapnya.
  • Stable: gemini-3.1-flash-lite
Update terbaru Mei 2026
Batas informasi Januari 2025

Panduan developer

Gemini 3.1 Flash-Lite paling baik dalam menangani tugas sederhana dalam skala besar. Berikut beberapa kasus penggunaan yang paling cocok untuk Gemini 3.1 Flash-Lite:

  • Terjemahan: Terjemahan cepat, murah, dan bervolume tinggi, seperti memproses pesan chat, ulasan, dan tiket dukungan dalam skala besar. Anda dapat menggunakan petunjuk sistem untuk membatasi output hanya ke teks terjemahan tanpa komentar tambahan:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • Transkripsi: Memproses rekaman, catatan suara, atau konten audio apa pun yang memerlukan transkrip teks tanpa membuat pipeline speech-to-text terpisah. Mendukung input multimodal, sehingga Anda dapat meneruskan file audio secara langsung untuk transkripsi:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • Tugas agen ringan dan ekstraksi data: Ekstraksi entity, klasifikasi, dan pipeline pemrosesan data ringan yang didukung dengan output JSON terstruktur. Misalnya, mengekstrak data terstruktur dari ulasan pelanggan e-commerce:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • Pemrosesan dan ringkasan dokumen: Mengurai PDF dan menampilkan ringkasan singkat, seperti untuk membuat pipeline pemrosesan dokumen atau mengurutkan file masuk dengan cepat:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • Perutean model: Menggunakan model berlatensi rendah dan berbiaya rendah sebagai pengklasifikasi yang merutekan kueri ke model yang sesuai berdasarkan kompleksitas tugas. Ini adalah pola nyata dalam produksi — Gemini CLI open source menggunakan Flash-Lite untuk mengklasifikasikan kompleksitas tugas dan merutekan ke Flash atau Pro.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • Penalaran: Untuk akurasi yang lebih baik untuk tugas yang diuntungkan dari penalaran langkah demi langkah, konfigurasi penalaran sehingga model menghabiskan komputasi tambahan untuk penalaran internal sebelum menghasilkan output akhir:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)