مدل چندوجهی مقرونبهصرفه ما، سریعترین عملکرد را برای وظایف سبک و با فرکانس بالا ارائه میدهد. Gemini 3.1 Flash-Lite برای وظایف عاملی با حجم بالا، استخراج دادههای ساده و برنامههای با تأخیر بسیار کم که در آنها بودجه و سرعت محدودیتهای اصلی هستند، بهترین گزینه است.
پیشنمایش gemini 3.1-flash-lite
| ملک | توضیحات |
|---|---|
| کد مدل | gemini-3.1-flash-lite-preview |
| انواع داده پشتیبانی شده را | ورودیها متن، تصویر، ویدئو، صدا و PDF خروجی متن |
| محدودیتهای توکن [*] | محدودیت توکن ورودی ۱,۰۴۸,۵۷۶ محدودیت توکن خروجی ۶۵,۵۳۶ |
| قابلیتهای | تولید صدا پشتیبانی نمیشود API دستهای پشتیبانی شده ذخیره سازی پشتیبانی شده اجرای کد پشتیبانی شده استفاده از کامپیوتر پشتیبانی نمیشود جستجوی فایل پشتیبانی شده فراخوانی تابع پشتیبانی شده اتصال به زمین با نقشههای گوگل پشتیبانی نمیشود تولید تصویر پشتیبانی نمیشود API زنده پشتیبانی نمیشود جستجوی اتصال به زمین پشتیبانی شده خروجیهای ساختاریافته پشتیبانی شده تفکر پشتیبانی شده زمینه URL پشتیبانی شده |
| نسخه |
|
| آخرین بهروزرسانی | مارس ۲۰۲۶ |
| حد آستانه دانش | ژانویه ۲۰۲۵ |
راهنمای توسعهدهنده
Gemini 3.1 Flash-Lite در انجام وظایف ساده در مقیاس بزرگ بهترین عملکرد را دارد. در اینجا چند مورد استفاده که برای Gemini 3.1 Flash-Lite مناسبتر هستند، آورده شده است:
ترجمه : ترجمه سریع، ارزان و با حجم بالا، مانند پردازش پیامهای چت، نظرات و تیکتهای پشتیبانی در مقیاس بزرگ. میتوانید از دستورالعملهای سیستم برای محدود کردن خروجی فقط به متن ترجمه شده و بدون توضیحات اضافی استفاده کنید:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)رونویسی : ضبطها، یادداشتهای صوتی یا هر محتوای صوتی را که در آن به متن نیاز دارید، بدون نیاز به ایجاد یک خط لوله جداگانه تبدیل گفتار به متن، پردازش کنید. از ورودیهای چندوجهی پشتیبانی میکند، بنابراین میتوانید فایلهای صوتی را مستقیماً برای رونویسی ارسال کنید:
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)وظایف عاملیت سبک و استخراج دادهها : استخراج موجودیت، طبقهبندی و پردازش دادههای سبک با پشتیبانی از خروجی ساختاریافته JSON. به عنوان مثال، استخراج دادههای ساختاریافته از یک نظر مشتری تجارت الکترونیک:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)پردازش و خلاصهسازی اسناد : فایلهای PDF را تجزیه و تحلیل کرده و خلاصههای مختصری را ارائه میدهد، مانند ساخت یک خط لوله پردازش اسناد یا مرتبسازی سریع فایلهای ورودی:
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)مسیریابی مدل : از یک مدل کمهزینه و کمتأخیر به عنوان طبقهبندیکننده استفاده کنید که پرسوجوها را بر اساس پیچیدگی وظیفه به مدل مناسب هدایت میکند. این یک الگوی واقعی در محیط عملیاتی است - رابط خط فرمان متنباز Gemini از Flash-Lite برای طبقهبندی پیچیدگی وظیفه و مسیریابی متناسب با آن به Flash یا Pro استفاده میکند.
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)تفکر : برای دقت بهتر در کارهایی که از استدلال گام به گام بهره میبرند، تفکر را طوری پیکربندی کنید که مدل قبل از تولید خروجی نهایی، محاسبات اضافی را صرف استدلال داخلی کند:
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)