Gemini 3.1 Flash-Lite

‫Gemini 3.1 Flash-Lite هو نموذج متعدد الوسائط منخفض وقت الاستجابة وفعّال من حيث التكلفة ومحسّن للمهام الخفيفة والمتكررة. يدعم النموذج إدخالات النصوص والصور والفيديوهات والملفات الصوتية وملفات PDF، وهو مصمّم لسير عمل الوكلاء ذي الحجم الكبير واستخراج البيانات البسيط والتطبيقات التي يكون فيها وقت الاستجابة وتكلفة واجهة برمجة التطبيقات هما القيود الأساسية.

gemini-3.1-flash-lite

الموقع الوصف
رمز النموذج gemini-3.1-flash-lite
أنواع البيانات المتوافقة

الإدخالات

النص والصورة والفيديو والملف الصوتي وملف PDF

الإخراج

نص

حدود الرموز المميّزة[*]

الحد الأقصى لرموز الإدخال المميّزة

1,048,576

الحد الأقصى لرموز الإخراج المميّزة

65,536

الإمكانات

إنشاء الصوت

غير متاح

واجهة برمجة التطبيقات المجمّعة

متاح

التخزين المؤقت

متاح

تنفيذ الرموز البرمجية

متاح

استخدام الكمبيوتر

غير متاح

البحث عن الملفات

متاح

الاستدلال المرن

متاح

استدعاء الوظائف

متاح

استخدام "خرائط Google" كمصدر

متاح

إنشاء الصور

غير متاح

واجهة برمجة التطبيقات المباشرة

غير متاح

الاستدلال حسب الأولوية

متاح

لتحديد المصادر في "بحث Google"

متاح

مُخرجات منظَّمة

متاح

طريقة التفكير

متاح

سياق عنوان URL

متاح

الإصدارات
يمكنك قراءة أنماط إصدارات النماذج لمزيد من التفاصيل.
  • Stable: gemini-3.1-flash-lite
آخر تحديث مايو 2026
تاريخ آخر تحديث للبيانات يناير 2025

دليل مطوّري البرامج

‫Gemini 3.1 Flash-Lite هو الأفضل في التعامل مع المهام البسيطة على نطاق واسع. في ما يلي بعض حالات الاستخدام الأنسب لـ Gemini 3.1 Flash-Lite:

  • الترجمة: ترجمة سريعة ورخيصة وذات حجم كبير، مثل معالجة رسائل المحادثة والمراجعات وطلبات الدعم على نطاق واسع. يمكنك استخدام تعليمات النظام لحصر الإخراج على النص المترجَم فقط بدون أي تعليقات إضافية:

    text = "Hey, are you down to grab some pizza later? I'm starving!"
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        config={
            "system_instruction": "Only output the translated text"
        },
        contents=f"Translate the following text to German: {text}"
    )
    
    print(response.text)
    
  • النقل الصوتي: معالجة التسجيلات أو الملاحظات الصوتية أو أي محتوى صوتي تحتاج فيه إلى نص مكتوب بدون إنشاء مسار منفصل لتحويل الكلام إلى نص. يدعم النموذج إدخالات متعددة الوسائط، لذا يمكنك تمرير الملفات الصوتية مباشرةً للنقل الصوتي:

    # URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3"
    
    # Upload the audio file to the GenAI File API
    uploaded_file = client.files.upload(file='sample.mp3')
    
    prompt = 'Generate a transcript of the audio.'
    
    response = client.models.generate_content(
      model="gemini-3.1-flash-lite",
      contents=[prompt, uploaded_file]
    )
    
    print(response.text)
    
  • مهام الوكلاء الخفيفة واستخراج البيانات: استخراج الكيانات، التصنيف، ومسارات معالجة البيانات الخفيفة التي يتم عرضها بتنسيق JSON منظَّم. على سبيل المثال، استخراج بيانات منظَّمة من مراجعة من عميل للتجارة الإلكترونية:

    from pydantic import BaseModel, Field
    
    prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk"
    input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back."
    
    class ReviewAnalysis(BaseModel):
        aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)")
        summary_quote: str = Field(description="The specific phrase from the review about this aspect")
        sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)")
        is_return_risk: bool = Field(description="True if the user mentions returning the item")
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=[prompt, input_text],
        config={
            "response_mime_type": "application/json",
            "response_json_schema": ReviewAnalysis.model_json_schema(),
        },
    )
    
    print(response.text)
    
  • معالجة المستندات وتلخيصها: تحليل ملفات PDF وعرض ملخّصات موجزة، مثل إنشاء مسار لمعالجة المستندات أو فرز الملفات الواردة بسرعة:

    import httpx
    
    # Download a sample PDF document
    doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf"
    doc_data = httpx.get(doc_url).content
    
    prompt = "Summarize this document"
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=[
            types.Part.from_bytes(
                data=doc_data,
                mime_type='application/pdf',
            ),
            prompt
        ]
    )
    
    print(response.text)
    
  • توجيه النماذج: استخدام نموذج منخفض وقت الاستجابة ومنخفض التكلفة كأداة تصنيف توجّه الطلبات إلى النموذج المناسب استنادًا إلى مدى تعقيد المهمة. هذا نمط حقيقي في الإنتاج، إذ تستخدم واجهة سطر الأوامر Gemini مفتوحة المصدر Flash-Lite لتصنيف مدى تعقيد المهمة وتوجيهها إلى Flash أو Pro وفقًا لذلك.

    FLASH_MODEL = 'flash'
    PRO_MODEL = 'pro'
    
    CLASSIFIER_SYSTEM_PROMPT = f"""
    You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX).
    1.  `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks.
    2.  `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks.
    
    A task is COMPLEX if it meets ONE OR MORE of the following criteria:
    1.  High Operational Complexity (Est. 4+ Steps/Tool Calls)
    2.  Strategic Planning and Conceptual Design
    3.  High Ambiguity or Large Scope
    4.  Deep Debugging and Root Cause Analysis
    
    A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls).
    """
    
    user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?"
    
    response_schema = {
      "type": "object",
      "properties": {
        "reasoning": {
          "type": "string",
          "description": "A brief, step-by-step explanation for the model choice, referencing the rubric."
        },
        "model_choice": {
          "type": "string",
          "enum": [FLASH_MODEL, PRO_MODEL]
        }
      },
      "required": ["reasoning", "model_choice"]
    }
    
    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents=user_input,
        config={
            "system_instruction": CLASSIFIER_SYSTEM_PROMPT,
            "response_mime_type": "application/json",
            "response_json_schema": response_schema
        },
    )
    
    print(response.text)
    
  • طريقة التفكير: لتحسين دقة المهام التي تستفيد من الاستدلال خطوة بخطوة ، يمكنك ضبط طريقة التفكير بحيث يخصّص النموذج قدرة حوسبة إضافية للاستدلال الداخلي قبل عرض الإخراج النهائي:

    response = client.models.generate_content(
        model="gemini-3.1-flash-lite",
        contents="How does AI work?",
        config=types.GenerateContentConfig(
            thinking_config=types.ThinkingConfig(thinking_level="high")
        ),
    )
    
    print(response.text)