Gemini 3.1 Flash-Lite (wersja testowa)

Nasz najbardziej ekonomiczny model multimodalny, który zapewnia najszybsze działanie w przypadku lekkich zadań o wysokiej częstotliwości. Gemini 3.1 Flash-Lite najlepiej sprawdza się w przypadku zadań agenta o dużej skali, prostego wyodrębniania danych i aplikacji o bardzo niskim opóźnieniu, w których głównymi ograniczeniami są budżet i szybkość.

gemini-3.1-flash-lite-preview

Właściwość Opis
Kod modelu gemini-3.1-flash-lite-preview
Obsługiwane typy danych

Dane wejściowe

Tekst, obraz, film, dźwięk i PDF

Dane wyjściowe

Tekst

Limity tokenów[*]

Limit tokenów wejściowych

1 048 576

Limit tokenów wyjściowych

65 536

Możliwości

Generowanie dźwięku

Nieobsługiwane

Interfejs API zbiorczy

Obsługiwane

Zapisywanie w pamięci podręcznej

Obsługiwane

Wykonywanie kodu

Obsługiwane

Korzystanie z komputera

Nieobsługiwane

Wyszukiwanie plików

Obsługiwane

Wnioskowanie Flex

Obsługiwane

Wywoływanie funkcji

Obsługiwane

Powiązanie ze źródłem informacji przy użyciu Map Google

Obsługiwane

Generowanie obrazów

Nieobsługiwane

Interfejs API na żywo

Nieobsługiwane

Wnioskowanie priorytetowe

Obsługiwane

Szukaj groundingu

Obsługiwane

Ustrukturyzowane dane wyjściowe

Obsługiwane

Myślę

Obsługiwane

Kontekst adresu URL

Obsługiwane

Wersje
Więcej informacji znajdziesz w sekcji Wzorce wersji modelu.
  • Preview: gemini-3.1-flash-lite-preview
Ostatnia aktualizacja Marzec 2026 r.
Granica wiedzy Styczeń 2025 r.

Przewodnik dla programistów

Gemini 3.1 Flash-Lite najlepiej radzi sobie z prostymi zadaniami na dużą skalę. Oto kilka przypadków użycia, w których Gemini 3.1 Flash-Lite sprawdza się najlepiej:

  • Tłumaczenie: szybkie, tanie i masowe tłumaczenie, np. przetwarzanie na dużą skalę wiadomości na czacie, opinii i zgłoszeń. Za pomocą instrukcji systemowych możesz ograniczyć dane wyjściowe do przetłumaczonego tekstu bez dodatkowych komentarzy:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • Transkrypcja: przetwarzanie nagrań, notatek głosowych lub dowolnych treści audio w których potrzebujesz transkrypcji tekstowej, bez konieczności uruchamiania osobnego potoku przetwarzania mowy na tekst. Obsługuje dane wejściowe multimodalne, dzięki czemu możesz bezpośrednio przekazywać pliki audio do transkrypcji:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • Lekkie zadania agenta i wyodrębnianie danych: wyodrębnianie encji, klasyfikacja i lekkie potoki przetwarzania danych obsługiwane przez ustrukturyzowane dane wyjściowe JSON. Na przykład wyodrębnianie danych strukturalnych z opinii klienta w e-commerce:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • Przetwarzanie i podsumowywanie dokumentów: analizowanie plików PDF i zwracanie zwięzłych podsumowań, np. na potrzeby tworzenia potoku przetwarzania dokumentów lub szybkiego sortowania przychodzących plików:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • Routing modelu: używaj modelu o niskim opóźnieniu i niskim koszcie jako klasyfikatora, który kieruje zapytania do odpowiedniego modelu na podstawie złożoności zadania. Jest to prawdziwy wzorzec w środowisku produkcyjnym – interfejs wiersza poleceń Gemini o otwartym kodzie źródłowym używa Flash-Lite do klasyfikowania złożoności zadań i odpowiedniego kierowania do Flash lub Pro.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • Myślę: aby zwiększyć dokładność zadań, które korzystają z rozumowania krok po kroku , skonfiguruj myślenie tak, aby model poświęcał dodatkowe zasoby obliczeniowe na wewnętrzne rozumowanie przed wygenerowaniem ostatecznych danych wyjściowych:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)