Pratinjau Gemini 3.1 Flash-Lite

Model multimodal kami yang paling hemat biaya, menawarkan performa tercepat untuk tugas ringan dan berfrekuensi tinggi. Gemini 3.1 Flash-Lite paling cocok untuk tugas agentik bervolume tinggi, ekstraksi data sederhana, dan aplikasi berlatensi sangat rendah yang memiliki batasan utama pada anggaran dan kecepatan.

gemini-3.1-flash-lite-preview

Properti Deskripsi
Kode model gemini-3.1-flash-lite-preview
Jenis data yang didukung

Input

Teks, Gambar, Video, Audio, dan PDF

Output

Teks

Batas token[*]

Batas token input

1.048.576

Batas token output

65.536

Kemampuan

Pembuatan audio

Tidak didukung

Batch API

Didukung

Menyimpan ke cache

Didukung

Eksekusi kode

Didukung

Penggunaan komputer

Tidak didukung

Penelusuran file

Didukung

Inferensi fleksibel

Didukung

Panggilan fungsi

Didukung

Grounding dengan Google Maps

Didukung

Pembuatan gambar

Tidak didukung

Live API

Tidak didukung

Inferensi prioritas

Didukung

Grounding penelusuran

Didukung

Output terstruktur

Didukung

Penalaran

Didukung

Konteks URL

Didukung

Versi
Baca pola versi model untuk mengetahui detail selengkapnya.
  • Preview: gemini-3.1-flash-lite-preview
Update terbaru Maret 2026
Batas pengetahuan Januari 2025

Panduan developer

Gemini 3.1 Flash-Lite paling baik dalam menangani tugas sederhana dalam skala besar. Berikut beberapa kasus penggunaan yang paling cocok untuk Gemini 3.1 Flash-Lite:

  • Terjemahan: Terjemahan cepat, murah, dan bervolume tinggi, seperti memproses pesan chat, ulasan, dan tiket dukungan dalam skala besar. Anda dapat menggunakan petunjuk sistem untuk membatasi output hanya pada teks yang diterjemahkan tanpa komentar tambahan:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • Transkripsi: Memproses rekaman, catatan suara, atau konten audio apa pun yang memerlukan transkrip teks tanpa membuat pipeline speech-to-text terpisah. Mendukung input multimodal, sehingga Anda dapat meneruskan file audio secara langsung untuk transkripsi:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • Tugas agentik ringan dan ekstraksi data: Pipeline ekstraksi entity, klasifikasi, dan pemrosesan data ringan yang didukung dengan output JSON terstruktur. Misalnya, mengekstrak data terstruktur dari ulasan pelanggan e-commerce:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • Pemrosesan dan ringkasan dokumen: Mengurai PDF dan menampilkan ringkasan singkat, seperti untuk membuat pipeline pemrosesan dokumen atau dengan cepat memilah file yang masuk:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • Perutean model: Menggunakan model berlatensi rendah dan berbiaya rendah sebagai pengklasifikasi yang merutekan kueri ke model yang sesuai berdasarkan kompleksitas tugas. Ini adalah pola nyata dalam produksi — Gemini CLI open source menggunakan Flash-Lite untuk mengklasifikasikan kompleksitas tugas dan merutekan ke Flash atau Pro.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • Penalaran: Untuk akurasi yang lebih baik untuk tugas yang diuntungkan dari penalaran langkah demi langkah, konfigurasi penalaran sehingga model menghabiskan komputasi tambahan untuk penalaran internal sebelum menghasilkan output akhir:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)