پیش‌نمایش Gemini 3.1 Flash-Lite

مدل چندوجهی مقرون‌به‌صرفه ما، سریع‌ترین عملکرد را برای وظایف سبک و با فرکانس بالا ارائه می‌دهد. Gemini 3.1 Flash-Lite برای وظایف عاملی با حجم بالا، استخراج داده‌های ساده و برنامه‌های با تأخیر بسیار کم که در آن‌ها بودجه و سرعت محدودیت‌های اصلی هستند، بهترین گزینه است.

پیش‌نمایش gemini 3.1-flash-lite

ملک توضیحات
کد مدل gemini-3.1-flash-lite-preview
انواع داده پشتیبانی شده را

ورودی‌ها

متن، تصویر، ویدئو، صدا و PDF

خروجی

متن

محدودیت‌های توکن [*]

محدودیت توکن ورودی

۱,۰۴۸,۵۷۶

محدودیت توکن خروجی

۶۵,۵۳۶

قابلیت‌های

تولید صدا

پشتیبانی نمی‌شود

API دسته‌ای

پشتیبانی شده

ذخیره سازی

پشتیبانی شده

اجرای کد

پشتیبانی شده

استفاده از کامپیوتر

پشتیبانی نمی‌شود

جستجوی فایل

پشتیبانی شده

فراخوانی تابع

پشتیبانی شده

اتصال به زمین با نقشه‌های گوگل

پشتیبانی نمی‌شود

تولید تصویر

پشتیبانی نمی‌شود

API زنده

پشتیبانی نمی‌شود

جستجوی اتصال به زمین

پشتیبانی شده

خروجی‌های ساختاریافته

پشتیبانی شده

تفکر

پشتیبانی شده

زمینه URL

پشتیبانی شده

نسخه
برای جزئیات بیشتر ، الگوهای نسخه مدل را مطالعه کنید.
  • Preview: gemini-3.1-flash-lite-preview
آخرین به‌روزرسانی مارس ۲۰۲۶
حد آستانه دانش ژانویه ۲۰۲۵

راهنمای توسعه‌دهنده

Gemini 3.1 Flash-Lite در انجام وظایف ساده در مقیاس بزرگ بهترین عملکرد را دارد. در اینجا چند مورد استفاده که برای Gemini 3.1 Flash-Lite مناسب‌تر هستند، آورده شده است:

  • ترجمه : ترجمه سریع، ارزان و با حجم بالا، مانند پردازش پیام‌های چت، نظرات و تیکت‌های پشتیبانی در مقیاس بزرگ. می‌توانید از دستورالعمل‌های سیستم برای محدود کردن خروجی فقط به متن ترجمه شده و بدون توضیحات اضافی استفاده کنید:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • رونویسی : ضبط‌ها، یادداشت‌های صوتی یا هر محتوای صوتی را که در آن به متن نیاز دارید، بدون نیاز به ایجاد یک خط لوله جداگانه تبدیل گفتار به متن، پردازش کنید. از ورودی‌های چندوجهی پشتیبانی می‌کند، بنابراین می‌توانید فایل‌های صوتی را مستقیماً برای رونویسی ارسال کنید:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite-preview",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • وظایف عاملیت سبک و استخراج داده‌ها : استخراج موجودیت، طبقه‌بندی و پردازش داده‌های سبک با پشتیبانی از خروجی ساختاریافته JSON. به عنوان مثال، استخراج داده‌های ساختاریافته از یک نظر مشتری تجارت الکترونیک:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • پردازش و خلاصه‌سازی اسناد : فایل‌های PDF را تجزیه و تحلیل کرده و خلاصه‌های مختصری را ارائه می‌دهد، مانند ساخت یک خط لوله پردازش اسناد یا مرتب‌سازی سریع فایل‌های ورودی:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • مسیریابی مدل : از یک مدل کم‌هزینه و کم‌تأخیر به عنوان طبقه‌بندی‌کننده استفاده کنید که پرس‌وجوها را بر اساس پیچیدگی وظیفه به مدل مناسب هدایت می‌کند. این یک الگوی واقعی در محیط عملیاتی است - رابط خط فرمان متن‌باز Gemini از Flash-Lite برای طبقه‌بندی پیچیدگی وظیفه و مسیریابی متناسب با آن به Flash یا Pro استفاده می‌کند.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • تفکر : برای دقت بهتر در کارهایی که از استدلال گام به گام بهره می‌برند، تفکر را طوری پیکربندی کنید که مدل قبل از تولید خروجی نهایی، محاسبات اضافی را صرف استدلال داخلی کند:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite-preview",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)