Gemini 3.1 Flash-Lite هو نموذج متعدد الوسائط منخفض وقت الاستجابة وفعّال من حيث التكلفة ومحسّن للمهام الخفيفة والمتكررة. يدعم النموذج إدخالات النصوص والصور والفيديوهات والملفات الصوتية وملفات PDF، وهو مصمّم لسير عمل الوكلاء ذي الحجم الكبير واستخراج البيانات البسيط والتطبيقات التي يكون فيها وقت الاستجابة وتكلفة واجهة برمجة التطبيقات هما القيود الأساسية.
gemini-3.1-flash-lite
| الموقع | الوصف |
|---|---|
| رمز النموذج | gemini-3.1-flash-lite |
| أنواع البيانات المتوافقة |
الإدخالات النص والصورة والفيديو والملف الصوتي وملف PDF الإخراج نص |
| حدود الرموز المميّزة[*] |
الحد الأقصى لرموز الإدخال المميّزة 1,048,576 الحد الأقصى لرموز الإخراج المميّزة 65,536 |
| الإمكانات |
إنشاء الصوت غير متاح واجهة برمجة التطبيقات المجمّعة متاح التخزين المؤقت متاح تنفيذ الرموز البرمجية متاح استخدام الكمبيوتر غير متاح البحث عن الملفات متاح الاستدلال المرن متاح استدعاء الوظائف متاح استخدام "خرائط Google" كمصدر متاح إنشاء الصور غير متاح واجهة برمجة التطبيقات المباشرة غير متاح الاستدلال حسب الأولوية متاح لتحديد المصادر في "بحث Google" متاح مُخرجات منظَّمة متاح طريقة التفكير متاح سياق عنوان URL متاح |
| الإصدارات |
|
| آخر تحديث | مايو 2026 |
| تاريخ آخر تحديث للبيانات | يناير 2025 |
دليل مطوّري البرامج
Gemini 3.1 Flash-Lite هو الأفضل في التعامل مع المهام البسيطة على نطاق واسع. في ما يلي بعض حالات الاستخدام الأنسب لـ Gemini 3.1 Flash-Lite:
الترجمة: ترجمة سريعة ورخيصة وذات حجم كبير، مثل معالجة رسائل المحادثة والمراجعات وطلبات الدعم على نطاق واسع. يمكنك استخدام تعليمات النظام لحصر الإخراج على النص المترجَم فقط بدون أي تعليقات إضافية:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)النقل الصوتي: معالجة التسجيلات أو الملاحظات الصوتية أو أي محتوى صوتي تحتاج فيه إلى نص مكتوب بدون إنشاء مسار منفصل لتحويل الكلام إلى نص. يدعم النموذج إدخالات متعددة الوسائط، لذا يمكنك تمرير الملفات الصوتية مباشرةً للنقل الصوتي:
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite", contents=[prompt, uploaded_file] ) print(response.text)مهام الوكلاء الخفيفة واستخراج البيانات: استخراج الكيانات، التصنيف، ومسارات معالجة البيانات الخفيفة التي يتم عرضها بتنسيق JSON منظَّم. على سبيل المثال، استخراج بيانات منظَّمة من مراجعة من عميل للتجارة الإلكترونية:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)معالجة المستندات وتلخيصها: تحليل ملفات PDF وعرض ملخّصات موجزة، مثل إنشاء مسار لمعالجة المستندات أو فرز الملفات الواردة بسرعة:
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)توجيه النماذج: استخدام نموذج منخفض وقت الاستجابة ومنخفض التكلفة كأداة تصنيف توجّه الطلبات إلى النموذج المناسب استنادًا إلى مدى تعقيد المهمة. هذا نمط حقيقي في الإنتاج، إذ تستخدم واجهة سطر الأوامر Gemini مفتوحة المصدر Flash-Lite لتصنيف مدى تعقيد المهمة وتوجيهها إلى Flash أو Pro وفقًا لذلك.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)طريقة التفكير: لتحسين دقة المهام التي تستفيد من الاستدلال خطوة بخطوة ، يمكنك ضبط طريقة التفكير بحيث يخصّص النموذج قدرة حوسبة إضافية للاستدلال الداخلي قبل عرض الإخراج النهائي:
response = client.models.generate_content( model="gemini-3.1-flash-lite", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)