Gemini 3.1 Flash-Lite プレビュー

高頻度で軽量なタスクに最速のパフォーマンスを提供する、最も費用対効果の高いマルチモーダル モデル。Gemini 3.1 Flash-Lite は、大量のエージェント タスク、シンプルなデータ抽出、予算と速度が主な制約となる超低レイテンシ アプリケーションに最適です。

gemini-3.1-flash-lite-preview

プロパティ 説明
モデルコード gemini-3.1-flash-lite-preview
サポートされるデータタイプ

入力

テキスト、画像、動画、音声、PDF

出力

テキスト

トークン上限[*]

入力トークンの上限

1,048,576

出力トークンの上限

65,536

機能

音声生成

サポート対象外

Batch API

サポート対象

キャッシュ保存

サポート対象

コードの実行

サポート対象

コンピュータ使用

サポート対象外

ファイル検索

サポート対象

Flex 推論

サポート対象

関数呼び出し

サポート対象

Google マップによるグラウンディング

サポート対象

画像生成

サポート対象外

Live API

サポート対象外

候補の推論

サポート対象

検索によるグラウンディング

サポート対象

構造化出力

サポート対象

思考モード

サポート対象

URL コンテキスト

サポート対象

バージョン
詳細については、モデル バージョンのパターンをご覧ください。
  • Preview: gemini-3.1-flash-lite-preview
最終更新日 2026 年 3 月
ナレッジ カットオフ 2025 年 1 月

デベロッパー ガイド

Gemini 3.1 Flash-Lite は、大規模な単純なタスクの処理に最適です。Gemini 3.1 Flash-Lite に最適なユースケースをいくつかご紹介します。

  • 翻訳: チャット メッセージ、レビュー、サポート チケットなどの大量の翻訳を高速かつ低コストで行います。システム指示を使用して、追加の解説なしで翻訳されたテキストのみを出力するように制限できます。

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • 文字起こし: 別の音声テキスト変換パイプラインをスピンアップせずに、録音、音声メモ、またはテキストの文字起こしが必要な音声コンテンツを処理します。マルチモーダル入力をサポートしているため、音声ファイルを直接渡して文字起こしを行うことができます。

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • 軽量なエージェント タスクとデータ抽出: エンティティ抽出、 分類、構造化 JSON 出力でサポートされる軽量データ処理パイプライン。たとえば、e コマースの購入者レビューから構造化データを抽出します。

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • ドキュメントの処理と要約: PDF を解析して、ドキュメント処理パイプラインの構築や受信ファイルの迅速なトリアージなど、簡潔な 要約を返します。

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • モデル ルーティング: 低レイテンシで低コストのモデルを分類子として使用し、タスクの複雑さに応じてクエリを適切なモデルに ルーティングします。これは実際のパターンです。オープンソースの Gemini CLI は Flash-Lite を使用してタスクの複雑さを分類し、それに応じて Flash または Pro にルーティングします。

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • 思考モード: ステップごとの 推論が役立つタスクの精度を高めるには、最終的な出力を生成する前にモデルが 内部推論に追加のコンピューティングを行うように思考モードを構成します。

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)