Nasz najbardziej ekonomiczny model multimodalny, który zapewnia najszybsze działanie w przypadku częstych, nietrudnych zadań. Gemini 3.1 Flash-Lite najlepiej sprawdza się w przypadku zadań agenta o dużej liczbie zapytań, prostego wyodrębniania danych i aplikacji o bardzo małych opóźnieniach, w których głównymi ograniczeniami są budżet i szybkość.
gemini-3.1-flash-lite-preview
| Właściwość | Opis |
|---|---|
| Kod modelu | gemini-3.1-flash-lite-preview |
| Obsługiwane typy danych |
Dane wejściowe Tekst, obraz, film, dźwięk i plik PDF Dane wyjściowe Tekst |
| Limity tokenów[*] |
Limit tokenów wejściowych 1 048 576 Limit tokenów wyjściowych 65 536 |
| Uprawnienia |
Generowanie dźwięku Nieobsługiwane Batch API Obsługiwane Zapisywanie w pamięci podręcznej Obsługiwane Wykonanie kodu Obsługiwane Korzystanie z komputera Nieobsługiwane Wyszukiwanie plików Obsługiwane Wywoływanie funkcji Obsługiwane Grounding z użyciem Map Google Nieobsługiwane Generowanie obrazów Nieobsługiwane Live API Nieobsługiwane Szukaj groundingu Obsługiwane Ustrukturyzowane dane wyjściowe Obsługiwane Myślenie Obsługiwane Kontekst adresu URL Obsługiwane |
| Wersje |
|
| Ostatnia aktualizacja | Marzec 2026 r. |
| Granica wiedzy | Styczeń 2025 r. |
Przewodnik dla programistów
Gemini 3.1 Flash-Lite najlepiej radzi sobie z prostymi zadaniami na dużą skalę. Oto kilka przypadków użycia, w których model Gemini 3.1 Flash-Lite sprawdza się najlepiej:
Tłumaczenie: szybkie, tanie i masowe tłumaczenie, np. przetwarzanie wiadomości na czacie, opinii i zgłoszeń na dużą skalę. Możesz użyć instrukcji systemowych, aby ograniczyć dane wyjściowe tylko do przetłumaczonego tekstu bez dodatkowych komentarzy:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)Transkrypcja: przetwarzaj nagrania, notatki głosowe lub dowolne treści audio, w przypadku których potrzebujesz transkrypcji tekstowej, bez uruchamiania osobnego potoku przetwarzania mowy na tekst. Obsługuje dane wejściowe multimodalne, dzięki czemu możesz bezpośrednio przesyłać pliki audio do transkrypcji:
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)Proste zadania agenta i wyodrębnianie danych: wyodrębnianie encji, klasyfikacja i proste potoki przetwarzania danych obsługiwane z użyciem uporządkowanych danych wyjściowych w formacie JSON. Na przykład wyodrębnianie uporządkowanych danych z opinii klienta o sklepie internetowym:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)Przetwarzanie i streszczanie dokumentów: analizuj pliki PDF i zwracaj zwięzłe podsumowania, np. w celu utworzenia potoku przetwarzania dokumentów lub szybkiego sortowania przychodzących plików:
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)Routing modelu: używaj modelu o krótkim czasie oczekiwania i niskim koszcie jako klasyfikatora, który kieruje zapytania do odpowiedniego modelu na podstawie złożoności zadania. Jest to prawdziwy wzorzec w środowisku produkcyjnym – interfejs wiersza poleceń Gemini open source używa modelu Flash-Lite do klasyfikowania złożoności zadań i odpowiedniego kierowania ich do modeli Flash lub Pro.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)Myślenie: aby zwiększyć dokładność w przypadku zadań, które wymagają rozumowania krok po kroku, skonfiguruj myślenie tak, aby model poświęcał dodatkową moc obliczeniową na wewnętrzne rozumowanie przed wygenerowaniem ostatecznego wyniku:
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)