Nasz najbardziej ekonomiczny model multimodalny, który zapewnia najszybsze działanie w przypadku częstych, nietrudnych zadań. Gemini 3.1 Flash-Lite najlepiej sprawdza się w przypadku zadań agentów obsługujących dużą liczbę żądań, prostego wyodrębniania danych i aplikacji o bardzo krótkim czasie oczekiwania, w których głównymi ograniczeniami są budżet i szybkość.
gemini-3.1-flash-lite-preview
| Właściwość | Opis |
|---|---|
| Kod modelu | gemini-3.1-flash-lite-preview |
| Obsługiwane typy danych |
Dane wejściowe Tekst, obraz, film, dźwięk i plik PDF Dane wyjściowe Tekst |
| Limity tokenów[*] |
Limit tokenów wejściowych 1 048 576 Limit tokenów wyjściowych 65 536 |
| Uprawnienia |
Generowanie dźwięku Nieobsługiwane Batch API Obsługiwane Zapisywanie w pamięci podręcznej Obsługiwane Wykonanie kodu Obsługiwane Korzystanie z komputera Nieobsługiwane Wyszukiwanie plików Obsługiwane Wywoływanie funkcji Obsługiwane Powiązanie ze źródłem informacji przy użyciu Map Google Obsługiwane Generowanie obrazów Nieobsługiwane Live API Nieobsługiwane Oparcie wyszukiwania na faktach Obsługiwane Ustrukturyzowane dane wyjściowe Obsługiwane Myślenie Obsługiwane Kontekst adresu URL Obsługiwane |
| Wersje |
|
| Ostatnia aktualizacja | Marzec 2026 r. |
| Granica wiedzy | Styczeń 2025 r. |
Przewodnik dla programistów
Gemini 3.1 Flash-Lite najlepiej radzi sobie z prostymi zadaniami na dużą skalę. Oto kilka przypadków użycia, w których Gemini 3.1 Flash-Lite sprawdzi się najlepiej:
Tłumaczenie: szybkie, tanie tłumaczenie dużych ilości tekstu, np. przetwarzanie wiadomości na czacie, opinii i zgłoszeń na dużą skalę. Możesz użyć instrukcji systemowych, aby ograniczyć dane wyjściowe tylko do przetłumaczonego tekstu bez dodatkowych komentarzy:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)Transkrypcja: przetwarzaj nagrania, notatki głosowe lub dowolne treści audio, w przypadku których potrzebujesz transkrypcji tekstowej, bez uruchamiania osobnego potoku zamiany mowy na tekst. Obsługuje dane wejściowe multimodalne, dzięki czemu możesz bezpośrednio przesyłać pliki audio do transkrypcji:
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)Proste zadania agenta i wyodrębnianie danych: wyodrębnianie encji, klasyfikacja i proste potoki przetwarzania danych obsługiwane z użyciem uporządkowanych danych wyjściowych w formacie JSON. Na przykład wyodrębnianie uporządkowanych danych z opinii klienta o sklepie internetowym:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)Przetwarzanie i streszczanie dokumentów: analizuj pliki PDF i zwracaj zwięzłe podsumowania, np. w celu utworzenia potoku przetwarzania dokumentów lub szybkiego sortowania przychodzących plików:
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)Routing modelu: używaj modelu o krótkim czasie oczekiwania i niskim koszcie jako klasyfikatora, który kieruje zapytania do odpowiedniego modelu na podstawie złożoności zadania. Jest to prawdziwy wzorzec w środowisku produkcyjnym – interfejs wiersza poleceń Gemini o otwartym kodzie źródłowym używa modelu Flash-Lite do klasyfikowania złożoności zadań i odpowiedniego kierowania ich do modeli Flash lub Pro.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)Myślenie: aby zwiększyć dokładność w przypadku zadań, które wymagają rozumowania krok po kroku, skonfiguruj myślenie tak, aby model poświęcał dodatkową moc obliczeniową na wewnętrzne rozumowanie przed wygenerowaniem ostatecznego wyniku:
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)