Gemini 3 është familja jonë e modeleve më inteligjente deri më sot, e ndërtuar mbi një themel të arsyetimit të fjalës së fundit. Është projektuar për të sjellë në jetë çdo ide duke zotëruar rrjedhat e punës agjentike, kodimin autonom dhe detyrat komplekse multimodale. Ky udhëzues mbulon karakteristikat kryesore të familjes së modeleve Gemini 3 dhe si të përfitoni sa më shumë prej saj.
Gemini 3 Pro përdor të menduarit dinamik si parazgjedhje për të arsyetuar përmes kërkesave. Për përgjigje më të shpejta dhe me vonesë më të ulët kur nuk kërkohet arsyetim kompleks, mund ta kufizoni nivelin e të menduarit të modelit në një low .
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
});
console.log(response.text);
}
run();
PUSHTIM
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Find the race condition in this multi-threaded C++ snippet: [code here]"}]
}]
}'
Eksploro

Eksploroni koleksionin tonë të aplikacioneve Gemini 3 për të parë se si modeli trajton arsyetimin e avancuar, kodimin autonom dhe detyrat komplekse multimodale.
Takoni Binjakët 3
Gemini 3 Pro është modeli i parë në serinë e re. gemini-3-pro-preview është më i miri për detyrat tuaja komplekse që kërkojnë njohuri të gjera të botës dhe arsyetim të avancuar në të gjitha modalitetet.
| ID e modelit | Dritarja e Kontekstit (Hyrëse / Dalëse) | Kufiri i Njohurive | Çmimi (Input / Output)* |
|---|---|---|---|
| Gemini-3-Pro-Parashikim | 1M / 64k | Janar 2025 | $2 / $12 (<200 mijë tokenë) 4 dollarë / 18 dollarë (>200 mijë tokenë) |
* Çmimi është për 1 milion token. Çmimet e listuara janë për tekst standard; tarifat e hyrjes multimodale mund të ndryshojnë.
Për kufijtë e detajuar të çmimeve, çmimet e grupeve dhe informacione shtesë, shihni faqen e modeleve .
Karakteristika të reja të API-t në Gemini 3
Gemini 3 prezanton parametra të rinj të dizajnuar për t'u dhënë zhvilluesve më shumë kontroll mbi vonesën, koston dhe besnikërinë multimodale.
Niveli i të menduarit
Parametri thinking_level kontrollon thellësinë maksimale të procesit të arsyetimit të brendshëm të modelit përpara se të prodhojë një përgjigje. Gemini 3 i trajton këto nivele si lejime relative për të menduarit në vend të garancive të rrepta të simboleve. Nëse thinking_level nuk specifikohet, Gemini 3 Pro do të vendosë si parazgjedhje high .
-
low: Minimizon vonesën dhe koston. Më i miri për ndjekjen e thjeshtë të udhëzimeve, bisedën ose aplikacionet me rendiment të lartë. -
medium: (Së shpejti), nuk mbështetet në lançim -
high(Parazgjedhur): Maksimizon thellësinë e arsyetimit. Modelit mund t'i duhet shumë më tepër kohë për të arritur te një shenjë e parë, por rezultati do të arsyetohet më me kujdes.
Rezolucioni i medias
Gemini 3 prezanton kontroll të detajuar mbi përpunimin e vizionit multimodal nëpërmjet parametrit media_resolution . Rezolucionet më të larta përmirësojnë aftësinë e modelit për të lexuar tekst të imët ose për të identifikuar detaje të vogla, por rrisin përdorimin e tokenëve dhe vonesën. Parametri media_resolution përcakton numrin maksimal të tokenëve të alokuar për imazh hyrës ose kuadër video.
Tani mund ta caktoni rezolucionin në media_resolution_low , media_resolution_medium ose media_resolution_high për çdo pjesë individuale të medias ose globalisht (nëpërmjet generation_config ). Nëse nuk specifikohet, modeli përdor vlerat optimale të parazgjedhura bazuar në llojin e medias.
Cilësimet e rekomanduara
| Lloji i medias | Cilësimi i rekomanduar | Maksimumi i Tokenëve | Udhëzime përdorimi |
|---|---|---|---|
| Imazhe | media_resolution_high | 1120 | Rekomandohet për shumicën e detyrave të analizës së imazheve për të siguruar cilësinë maksimale. |
| PDF-të | media_resolution_medium | 560 | Optimale për të kuptuar dokumentin; cilësia zakonisht ngopet në medium . Rritja në high rrallë përmirëson rezultatet e OCR për dokumentet standarde. |
| Video (e Përgjithshme) | media_resolution_low (ose media_resolution_medium ) | 70 (për kornizë) | Shënim: Për videon, cilësimet low dhe medium trajtohen në mënyrë identike (70 tokena) për të optimizuar përdorimin e kontekstit. Kjo është e mjaftueshme për shumicën e detyrave të njohjes dhe përshkrimit të veprimeve. |
| Video (me shumë tekst) | media_resolution_high | 280 (për kornizë) | E nevojshme vetëm kur rasti i përdorimit përfshin leximin e tekstit të dendur (OCR) ose detajeve të vogla brenda kornizave të videos. |
Python
from google import genai
from google.genai import types
import base64
# The media_resolution parameter is currently only available in the v1alpha API version.
client = genai.Client(http_options={'api_version': 'v1alpha'})
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents=[
types.Content(
parts=[
types.Part(text="What is in this image?"),
types.Part(
inline_data=types.Blob(
mime_type="image/jpeg",
data=base64.b64decode("..."),
),
media_resolution={"level": "media_resolution_high"}
)
]
)
]
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
// The media_resolution parameter is currently only available in the v1alpha API version.
const ai = new GoogleGenAI({ apiVersion: "v1alpha" });
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: [
{
parts: [
{ text: "What is in this image?" },
{
inlineData: {
mimeType: "image/jpeg",
data: "...",
},
mediaResolution: {
level: "media_resolution_high"
}
}
]
}
]
});
console.log(response.text);
}
run();
PUSHTIM
curl "https://generativelanguage.googleapis.com/v1alpha/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [
{ "text": "What is in this image?" },
{
"inlineData": {
"mimeType": "image/jpeg",
"data": "..."
},
"mediaResolution": {
"level": "media_resolution_high"
}
}
]
}]
}'
Temperatura
Për Gemini 3, ne rekomandojmë fuqimisht mbajtjen e parametrit të temperaturës në vlerën e tij të paracaktuar prej 1.0 .
Ndërsa modelet e mëparshme shpesh përfitonin nga rregullimi i temperaturës për të kontrolluar kreativitetin në vend të determinizmit, aftësitë e arsyetimit të Gemini 3 janë të optimizuara për cilësimin fillestar. Ndryshimi i temperaturës (vendosja e saj nën 1.0) mund të çojë në sjellje të papritura, të tilla si rikthimi në një cikël ose performancë të degraduar, veçanërisht në detyra komplekse matematikore ose arsyetimi.
Nënshkrimet e mendimit
Gemini 3 përdor nënshkrimet e mendimit për të ruajtur kontekstin e arsyetimit në të gjitha thirrjet API. Këto nënshkrime janë përfaqësime të koduara të procesit të brendshëm të të menduarit të modelit. Për t'u siguruar që modeli ruan aftësitë e tij të arsyetimit, duhet t'i ktheni këto nënshkrime përsëri modelit në kërkesën tuaj pikërisht ashtu siç janë marrë:
- Thirrja e Funksionit (Strict): API-ja zbaton validim të rreptë në "Kthesën Aktuale". Mungesa e nënshkrimeve do të rezultojë në një gabim 400.
- Tekst/Bisedë: Validimi nuk zbatohet në mënyrë strikte, por mungesa e nënshkrimeve do të degradojë arsyetimin e modelit dhe cilësinë e përgjigjeve.
Thirrja e funksionit (validim i rreptë)
Kur Gemini gjeneron një functionCall , ai mbështetet në thoughtSignature për të përpunuar saktë rezultatin e mjetit në kthesën tjetër. "Kthesa aktuale" përfshin të gjitha hapat e Model ( functionCall ) dhe User ( functionResponse ) që kanë ndodhur që nga mesazhi i fundit standard text e User .
- Thirrje e vetme funksioni: Pjesa
functionCallpërmban një nënshkrim. Duhet ta ktheni atë. - Thirrjet Paralele të Funksioneve: Vetëm pjesa e parë
functionCallnë listë do të përmbajë nënshkrimin. Ju duhet t'i ktheni pjesët në rendin e saktë të marrë. - Shumëhapësh (Sekuencial): Nëse modeli thërret një mjet, merr një rezultat dhe thërret një mjet tjetër (brenda të njëjtit raund), të dyja thirrjet e funksioneve kanë nënshkrime. Ju duhet të ktheni të gjitha nënshkrimet e akumuluara në histori.
Tekst dhe transmetim
Për gjenerimin standard të bisedave ose mesazheve, prania e një firme nuk është e garantuar.
- Jo-Transmetim : Pjesa e fundit e përmbajtjes së përgjigjes mund të përmbajë një
thoughtSignature, megjithëse nuk është gjithmonë i pranishëm. Nëse kthehet një i tillë, duhet ta dërgoni përsëri për të ruajtur performancën më të mirë. - Transmetim : Nëse gjenerohet një nënshkrim, ai mund të mbërrijë në një pjesë të fundit që përmban një pjesë teksti bosh. Sigurohuni që analizuesi i transmetimit tuaj të kontrollojë për nënshkrime edhe nëse fusha e tekstit është bosh.
Shembuj kodi
Thirrja e Funksionit me Shumë Hapa (Sekuenciale)
Përdoruesi bën një pyetje që kërkon dy hapa të veçantë (Kontrolloni Fluturimin -> Rezervoni Taksi) në një raund të vetëm.
Hapi 1: Modeli thërret Mjetin e Fluturimit.
Modeli kthen një nënshkrim <Sig_A>
// Model Response (Turn 1, Step 1) { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // SAVE THIS } ] }
Hapi 2: Përdoruesi dërgon rezultatin e fluturimit
Duhet ta dërgojmë mbrapsht <Sig_A> për të ruajtur rrjedhën e mendimeve të modelit.
// User Request (Turn 1, Step 2) [ { "role": "user", "parts": [{ "text": "Check flight AA100..." }] }, { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // REQUIRED } ] }, { "role": "user", "parts": [{ "functionResponse": { "name": "check_flight", "response": {...} } }] } ]
Hapi 3: Modeli i thirrjeve Taxi Tool
Modeli e mban mend vonesën e fluturimit nëpërmjet <Sig_A> dhe tani vendos të rezervojë një taksi. Ai gjeneron një nënshkrim të ri <Sig_B> .
// Model Response (Turn 1, Step 3) { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", "args": {...} }, "thoughtSignature": "<Sig_B>" // SAVE THIS } ] }
Hapi 4: Përdoruesi dërgon rezultatin e taksisë
Për të përfunduar kthesën, duhet të ktheni mbrapsht të gjithë zinxhirin: <Sig_A> DHE <Sig_B> .
// User Request (Turn 1, Step 4) [ // ... previous history ... { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", ... }, "thoughtSignature": "<Sig_A>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] }, { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", ... }, "thoughtSignature": "<Sig_B>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] } ]
Thirrja e Funksionit Paralel
Përdoruesi pyet: "Kontrolloni motin në Paris dhe Londër." Modeli kthen dy thirrje funksionesh në një përgjigje.
// User Request (Sending Parallel Results) [ { "role": "user", "parts": [ { "text": "Check the weather in Paris and London." } ] }, { "role": "model", "parts": [ // 1. First Function Call has the signature { "functionCall": { "name": "check_weather", "args": { "city": "Paris" } }, "thoughtSignature": "<Signature_A>" }, // 2. Subsequent parallel calls DO NOT have signatures { "functionCall": { "name": "check_weather", "args": { "city": "London" } } } ] }, { "role": "user", "parts": [ // 3. Function Responses are grouped together in the next block { "functionResponse": { "name": "check_weather", "response": { "temp": "15C" } } }, { "functionResponse": { "name": "check_weather", "response": { "temp": "12C" } } } ] } ]
Arsyetimi Tekst/Brenda Kontekstit (Pa Validim)
Përdoruesi bën një pyetje që kërkon arsyetim brenda kontekstit pa mjete të jashtme. Ndonëse nuk është validuar në mënyrë strikte, përfshirja e nënshkrimit ndihmon modelin të ruajë zinxhirin e arsyetimit për pyetjet pasuese.
// User Request (Follow-up question) [ { "role": "user", "parts": [{ "text": "What are the risks of this investment?" }] }, { "role": "model", "parts": [ { "text": "I need to calculate the risk step-by-step. First, I'll look at volatility...", "thoughtSignature": "<Signature_C>" // Recommended to include } ] }, { "role": "user", "parts": [{ "text": "Summarize that in one sentence." }] } ]
Migrimi nga modele të tjera
Nëse po transferoni një gjurmë bisede nga një model tjetër (p.sh., Gemini 2.5) ose po injektoni një thirrje funksioni të personalizuar që nuk është gjeneruar nga Gemini 3, nuk do të keni një nënshkrim të vlefshëm.
Për të anashkaluar validimin e rreptë në këto skenarë specifikë, plotësoni fushën me këtë varg specifik fiktiv: "thoughtSignature": "context_engineering_is_the_way_to_go"
Rezultate të strukturuara me mjete
Gemini 3 ju lejon të kombinoni Daljet e Strukturuara me mjete të integruara, duke përfshirë Grounding with Google Search , URL Context dhe Code Execution .
Python
from google import genai
from google.genai import types
from pydantic import BaseModel, Field
from typing import List
class MatchResult(BaseModel):
winner: str = Field(description="The name of the winner.")
final_match_score: str = Field(description="The final match score.")
scorers: List[str] = Field(description="The name of the scorer.")
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Search for all details for the latest Euro.",
config={
"tools": [
{"google_search": {}},
{"url_context": {}}
],
"response_mime_type": "application/json",
"response_json_schema": MatchResult.model_json_schema(),
},
)
result = MatchResult.model_validate_json(response.text)
print(result)
JavaScript
import { GoogleGenAI } from "@google/genai";
import { z } from "zod";
import { zodToJsonSchema } from "zod-to-json-schema";
const ai = new GoogleGenAI({});
const matchSchema = z.object({
winner: z.string().describe("The name of the winner."),
final_match_score: z.string().describe("The final score."),
scorers: z.array(z.string()).describe("The name of the scorer.")
});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: "Search for all details for the latest Euro.",
config: {
tools: [
{ googleSearch: {} },
{ urlContext: {} }
],
responseMimeType: "application/json",
responseJsonSchema: zodToJsonSchema(matchSchema),
},
});
const match = matchSchema.parse(JSON.parse(response.text));
console.log(match);
}
run();
PUSHTIM
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Search for all details for the latest Euro."}]
}],
"tools": [
{"googleSearch": {}},
{"urlContext": {}}
],
"generationConfig": {
"responseMimeType": "application/json",
"responseJsonSchema": {
"type": "object",
"properties": {
"winner": {"type": "string", "description": "The name of the winner."},
"final_match_score": {"type": "string", "description": "The final score."},
"scorers": {
"type": "array",
"items": {"type": "string"},
"description": "The name of the scorer."
}
},
"required": ["winner", "final_match_score", "scorers"]
}
}
}'
Migrimi nga Binjakët 2.5
Gemini 3 është familja jonë e modeleve më të afta deri më sot dhe ofron një përmirësim gradual në krahasim me Gemini 2.5 Pro. Kur migroni, merrni parasysh sa vijon:
- Të menduarit: Nëse më parë keni përdorur inxhinieri komplekse të pyetjeve (si Chain-of-thought) për të detyruar Gemini 2.5 të arsyetojë, provoni Gemini 3 me
thinking_level: "high"dhe pyetje të thjeshtuara. - Cilësimet e temperaturës: Nëse kodi juaj ekzistues e vendos temperaturën në mënyrë të qartë (veçanërisht në vlera të ulëta për daljet deterministike), ne rekomandojmë heqjen e këtij parametri dhe përdorimin e parazgjedhjes 1.0 të Gemini 3 për të shmangur problemet e mundshme të cikleve ose degradimin e performancës në detyra komplekse.
- Kuptimi i PDF-ve dhe dokumenteve: Rezolucioni i parazgjedhur i OCR-së për PDF-të ka ndryshuar. Nëse jeni mbështetur në sjellje specifike për analizimin e dendur të dokumenteve, testoni cilësimin e ri
media_resolution_highpër të siguruar saktësi të vazhdueshme. - Konsumi i tokenëve: Migrimi në cilësimet fillestare të Gemini 3 Pro mund të rrisë përdorimin e tokenëve për PDF-të, por të ulë përdorimin e tokenëve për videon. Nëse kërkesat tani tejkalojnë dritaren e kontekstit për shkak të rezolucioneve më të larta fillestare, ne rekomandojmë që të zvogëlohet në mënyrë të qartë rezolucioni i medias.
- Segmentimi i imazhit: Aftësitë e segmentimit të imazhit (kthimi i maskave në nivel pikseli për objektet) nuk mbështeten në Gemini 3 Pro. Për ngarkesat e punës që kërkojnë segmentim nativ të imazhit, ne rekomandojmë të vazhdoni të përdorni Gemini 2.5 Flash me të menduarit të çaktivizuar ose Gemini Robotics-ER 1.5 .
Pajtueshmëria me OpenAI
Për përdoruesit që përdorin shtresën e përputhshmërisë OpenAI, parametrat standardë hartëzohen automatikisht në ekuivalentët Gemini:
-
reasoning_effort(OAI) përputhet methinking_level(Binjakët). Vini re sereasoning_effortmesatare përputhet methinking_leveltë lartë.
Nxitja e praktikave më të mira
Binjakët 3 është një model arsyetimi, i cili ndryshon mënyrën se si duhet të nxitni.
- Udhëzime të sakta: Jini koncizë në udhëzimet tuaja hyrëse. Binjakët 3 i përgjigjen më së miri udhëzimeve të drejtpërdrejta dhe të qarta. Mund të analizojë tepër teknikat e hollësishme ose tepër komplekse të inxhinierisë së udhëzimeve të përdorura për modelet e vjetra.
- Fjalëkalimi i rezultateve: Si parazgjedhje, Gemini 3 është më pak i gjatë dhe preferon të ofrojë përgjigje të drejtpërdrejta dhe efikase. Nëse rasti juaj i përdorimit kërkon një personazh më bisedor ose "të hapur", duhet ta drejtoni modelin në mënyrë të qartë në kërkesë (p.sh., "Shpjegojeni këtë si një asistent miqësor dhe i hapur").
- Menaxhimi i kontekstit: Kur punoni me grupe të dhënash të mëdha (p.sh., libra të tërë, baza kodesh ose video të gjata), vendosni udhëzimet ose pyetjet tuaja specifike në fund të kërkesës, pas kontekstit të të dhënave. Ankoroni arsyetimin e modelit në të dhënat e dhëna duke e filluar pyetjen tuaj me një frazë si, "Bazuar në informacionin e mësipërm...".
Mësoni më shumë rreth strategjive të projektimit të shpejtë në udhëzuesin e inxhinierisë së shpejtë .
Pyetje të shpeshta
Cili është kufiri i njohurive për Gemini 3 Pro? Gemini 3 ka një kufi njohurish në janar 2025. Për informacione më të fundit, përdorni mjetin Search Grounding .
Cilat janë kufizimet e dritares së kontekstit? Gemini 3 Pro mbështet një dritare konteksti hyrëse prej 1 milion tokenësh dhe deri në 64 mijë tokenësh daljeje.
A ka ndonjë nivel falas për Gemini 3 Pro? Mund ta provoni modelin falas në Google AI Studio, por aktualisht nuk ka asnjë nivel falas për
gemini-3-pro-previewnë Gemini API.A do të funksionojë ende kodi im i vjetër
thinking_budget? Po,thinking_budgetmbështetet ende për pajtueshmëri prapa, por ne rekomandojmë migrimin nëthinking_levelpër një performancë më të parashikueshme. Mos i përdorni të dyja në të njëjtën kërkesë.A e mbështet Gemini 3 Batch API? Po, Gemini 3 e mbështet Batch API.
A mbështetet ruajtja në memorje kontekstuale? Po, ruajtja në memorje kontekstuale mbështetet për Gemini 3. Numri minimal i tokenëve të kërkuar për të filluar ruajtjen në memorje është 2,048 tokena.
Cilat mjete mbështeten në Gemini 3? Gemini 3 mbështet Kërkimin në Google , Kërkimin e Skedarëve , Ekzekutimin e Kodit dhe Kontekstin e URL-së . Ai gjithashtu mbështet Thirrjen standarde të Funksioneve për mjetet tuaja të personalizuara. Ju lutemi vini re se Google Maps dhe Përdorimi i Kompjuterit aktualisht nuk mbështeten.
Hapat e ardhshëm
- Filloni me Librin e Gatimit Gemini 3
- Shikoni udhëzuesin e dedikuar të Librit të Gatimit mbi nivelet e të menduarit dhe si të kaloni nga buxheti i të menduarit në nivelet e të menduarit.