আমাদের সবচেয়ে সাশ্রয়ী মাল্টিমোডাল মডেল, উচ্চ-ফ্রিকোয়েন্সি, হালকা কাজের জন্য দ্রুততম কর্মক্ষমতা প্রদান করে। জেমিনি 3.1 ফ্ল্যাশ-লাইট উচ্চ-ভলিউম এজেন্টিক কাজ, সহজ ডেটা নিষ্কাশন এবং অত্যন্ত কম-লেটেন্সি অ্যাপ্লিকেশনের জন্য সেরা যেখানে বাজেট এবং গতিই প্রাথমিক সীমাবদ্ধতা।
জেমিনি-৩.১-ফ্ল্যাশ-লাইট-প্রিভিউ
| সম্পত্তি | বিবরণ |
|---|---|
| মডেল কোড | gemini-3.1-flash-lite-preview |
| সমর্থিত ডেটা প্রকারগুলি | ইনপুট টেক্সট, ছবি, ভিডিও, অডিও এবং পিডিএফ আউটপুট টেক্সট |
| টোকেন সীমা [*] | ইনপুট টোকেন সীমা ১,০৪৮,৫৭৬ আউটপুট টোকেন সীমা ৬৫,৫৩৬ |
| ক্ষমতা | অডিও জেনারেশন সমর্থিত নয় ব্যাচ এপিআই সমর্থিত ক্যাশিং সমর্থিত কোড এক্সিকিউশন সমর্থিত কম্পিউটার ব্যবহার সমর্থিত নয় ফাইল অনুসন্ধান সমর্থিত ফাংশন কলিং সমর্থিত গুগল ম্যাপের সাহায্যে গ্রাউন্ডিং সমর্থিত নয় চিত্র তৈরি সমর্থিত নয় লাইভ এপিআই সমর্থিত নয় অনুসন্ধান গ্রাউন্ডিং সমর্থিত কাঠামোগত আউটপুট সমর্থিত ভাবছি সমর্থিত URL প্রসঙ্গ সমর্থিত |
| সংস্করণ |
|
| সর্বশেষ আপডেট | মার্চ ২০২৬ |
| জ্ঞানের সীমাবদ্ধতা | জানুয়ারী ২০২৫ |
ডেভেলপার গাইড
জেমিনি ৩.১ ফ্ল্যাশ-লাইট উল্লেখযোগ্য মাত্রায় সহজ কাজ পরিচালনা করার ক্ষেত্রে সবচেয়ে ভালো। জেমিনি ৩.১ ফ্ল্যাশ-লাইটের জন্য সবচেয়ে উপযুক্ত কিছু ব্যবহারের উদাহরণ এখানে দেওয়া হল:
অনুবাদ : দ্রুত, সস্তা, উচ্চ-ভলিউম অনুবাদ, যেমন চ্যাট বার্তা, পর্যালোচনা এবং সহায়তা টিকিট ব্যাপকভাবে প্রক্রিয়াকরণ করা। আপনি কোনও অতিরিক্ত মন্তব্য ছাড়াই কেবল অনুবাদিত পাঠ্যের আউটপুট সীমাবদ্ধ করতে সিস্টেম নির্দেশাবলী ব্যবহার করতে পারেন:
text = "Hey, are you down to grab some pizza later? I'm starving!" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", config={ "system_instruction": "Only output the translated text" }, contents=f"Translate the following text to German: {text}" ) print(response.text)ট্রান্সক্রিপশন : রেকর্ডিং, ভয়েস নোট, অথবা যেকোনো অডিও কন্টেন্ট প্রক্রিয়া করুন যেখানে আপনার টেক্সট ট্রান্সক্রিপ্টের প্রয়োজন হয়, আলাদা স্পিচ-টু-টেক্সট পাইপলাইন না ঘুরিয়ে। মাল্টিমোডাল ইনপুট সমর্থন করে, যাতে আপনি ট্রান্সক্রিপশনের জন্য সরাসরি অডিও ফাইলগুলি পাস করতে পারেন:
# URL = "https://storage.googleapis.com/generativeai-downloads/data/State_of_the_Union_Address_30_January_1961.mp3" # Upload the audio file to the GenAI File API uploaded_file = client.files.upload(file='sample.mp3') prompt = 'Generate a transcript of the audio.' response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, uploaded_file] ) print(response.text)হালকা এজেন্টিক কাজ এবং ডেটা নিষ্কাশন : কাঠামোগত JSON আউটপুট সহ সমর্থিত সত্তা নিষ্কাশন, শ্রেণিবিন্যাস এবং হালকা ডেটা প্রক্রিয়াকরণ পাইপলাইন। উদাহরণস্বরূপ, একটি ই-কমার্স গ্রাহক পর্যালোচনা থেকে কাঠামোগত ডেটা নিষ্কাশন:
from pydantic import BaseModel, Field prompt = "Analyze the user review and determine the aspect, sentiment score, summary quote, and return risk" input_text = "The boots look amazing and the leather is high quality, but they run way too small. I'm sending them back." class ReviewAnalysis(BaseModel): aspect: str = Field(description="The feature mentioned (e.g., Price, Comfort, Style, Shipping)") summary_quote: str = Field(description="The specific phrase from the review about this aspect") sentiment_score: int = Field(description="1 to 5 (1=worst, 5=best)") is_return_risk: bool = Field(description="True if the user mentions returning the item") response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[prompt, input_text], config={ "response_mime_type": "application/json", "response_json_schema": ReviewAnalysis.model_json_schema(), }, ) print(response.text)ডকুমেন্ট প্রক্রিয়াকরণ এবং সারসংক্ষেপ : পিডিএফ পার্স করুন এবং সংক্ষিপ্ত সারসংক্ষেপ ফেরত দিন, যেমন একটি ডকুমেন্ট প্রক্রিয়াকরণ পাইপলাইন তৈরি করা বা আগত ফাইলগুলিকে দ্রুত ট্রাইজ করা:
import httpx # Download a sample PDF document doc_url = "https://storage.googleapis.com/generativeai-downloads/data/med_gemini.pdf" doc_data = httpx.get(doc_url).content prompt = "Summarize this document" response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=[ types.Part.from_bytes( data=doc_data, mime_type='application/pdf', ), prompt ] ) print(response.text)মডেল রাউটিং : একটি কম-বিলম্বিত এবং কম খরচের মডেল ব্যবহার করুন যা কাজের জটিলতার উপর ভিত্তি করে উপযুক্ত মডেলে প্রশ্নগুলিকে রুট করে। এটি উৎপাদনের একটি বাস্তব ধরণ - ওপেন-সোর্স জেমিনি সিএলআই কাজের জটিলতা শ্রেণীবদ্ধ করতে এবং সেই অনুযায়ী ফ্ল্যাশ বা প্রোতে রুট করতে ফ্ল্যাশ-লাইট ব্যবহার করে।
FLASH_MODEL = 'flash' PRO_MODEL = 'pro' CLASSIFIER_SYSTEM_PROMPT = f""" You are a specialized Task Routing AI. Your sole function is to analyze the user's request and classify its complexity. Choose between `{FLASH_MODEL}` (SIMPLE) or `{PRO_MODEL}` (COMPLEX). 1. `{FLASH_MODEL}`: A fast, efficient model for simple, well-defined tasks. 2. `{PRO_MODEL}`: A powerful, advanced model for complex, open-ended, or multi-step tasks. A task is COMPLEX if it meets ONE OR MORE of the following criteria: 1. High Operational Complexity (Est. 4+ Steps/Tool Calls) 2. Strategic Planning and Conceptual Design 3. High Ambiguity or Large Scope 4. Deep Debugging and Root Cause Analysis A task is SIMPLE if it is highly specific, bounded, and has Low Operational Complexity (Est. 1-3 tool calls). """ user_input = "I'm getting an error 'Cannot read property 'map' of undefined' when I click the save button. Can you fix it?" response_schema = { "type": "object", "properties": { "reasoning": { "type": "string", "description": "A brief, step-by-step explanation for the model choice, referencing the rubric." }, "model_choice": { "type": "string", "enum": [FLASH_MODEL, PRO_MODEL] } }, "required": ["reasoning", "model_choice"] } response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents=user_input, config={ "system_instruction": CLASSIFIER_SYSTEM_PROMPT, "response_mime_type": "application/json", "response_json_schema": response_schema }, ) print(response.text)চিন্তাভাবনা : ধাপে ধাপে যুক্তি থেকে উপকৃত কাজগুলির জন্য আরও সঠিকতার জন্য, চিন্তাভাবনা কনফিগার করুন যাতে মডেলটি চূড়ান্ত আউটপুট তৈরি করার আগে অভ্যন্তরীণ যুক্তির উপর অতিরিক্ত গণনা ব্যয় করে:
response = client.models.generate_content( model="gemini-3.1-flash-lite-preview", contents="How does AI work?", config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig(thinking_level="high") ), ) print(response.text)