最も費用対効果の高いマルチモーダル モデル。高頻度の軽量タスクに最適なパフォーマンスを提供します。Gemini 3.1 Flash-Lite は、大量のエージェント タスク、シンプルなデータ抽出、予算と速度が主な制約となる超低レイテンシ アプリケーションに最適です。
gemini-3.1-flash-lite-preview
| プロパティ | 説明 |
|---|---|
| モデルコード | gemini-3.1-flash-lite-preview |
| サポートされるデータタイプ |
入力 テキスト、画像、動画、音声、PDF 出力 テキスト |
| トークンの上限[*] |
入力トークンの上限 1,048,576 出力トークンの上限 65,536 |
| 機能 |
音声生成 サポート対象外 Batch API サポート対象 キャッシュ保存 サポート対象 コードの実行 サポート対象 コンピュータ使用 サポート対象外 ファイル検索 サポート対象 関数呼び出し サポート対象 Google マップによるグラウンディング サポート対象外 画像生成 サポート対象外 Live API サポート対象外 検索によるグラウンディング サポート対象 構造化出力 サポート対象 思考モード サポート対象 URL コンテキスト サポート対象 |
| バージョン |
|
| の最新の更新 | 2026 年 3 月 |
| ナレッジ カットオフ | 2025 年 1 月 |
デベロッパー ガイド
Gemini 3.1 Flash-Lite は、大規模な単純なタスクの処理に最適です。Gemini 3.1 Flash-Lite に最適なユースケースは次のとおりです。
翻訳: チャット メッセージ、レビュー、サポート チケットなどを大規模に処理する、高速で低コストの大規模な翻訳。システム指示を使用して、出力が翻訳されたテキストのみになるように制限できます。
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)文字起こし: 別の音声文字変換パイプラインを起動せずに、テキスト文字起こしが必要な録音、音声メモ、または音声コンテンツを処理します。マルチモーダル入力をサポートしているため、音声文字変換用に音声ファイルを直接渡すことができます。
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)軽量のエージェント タスクとデータ抽出: 構造化された JSON 出力でサポートされるエンティティ抽出、分類、軽量のデータ処理パイプライン。たとえば、e コマースの顧客レビューから構造化データを抽出します。
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)ドキュメントの処理と要約: PDF を解析して、簡潔な要約を返します。ドキュメント処理パイプラインの構築や、受信ファイルの迅速なトリアージなどに使用できます。
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)モデル ルーティング: 低レイテンシで低コストのモデルを分類子として使用し、タスクの複雑さに基づいてクエリを適切なモデルにルーティングします。これは本番環境の実際のパターンです。オープンソースの Gemini CLI は、Flash-Lite を使用してタスクの複雑さを分類し、それに応じて Flash または Pro にルーティングします。
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)思考: ステップごとの推論が有効なタスクの精度を高めるには、モデルが最終出力を生成する前に内部推論に追加のコンピューティング リソースを費やすように思考を構成します。
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)