Gemini 3 היא קבוצת המודלים הכי חכמה שלנו עד היום, והיא מבוססת על יכולות חשיבה רציונלית מתקדמות. הוא נועד להפוך כל רעיון למציאות באמצעות שליטה בתהליכי עבודה של סוכנים, בתכנות אוטונומי ובמשימות מורכבות מרובות-אופנים. במדריך הזה מוסברות התכונות העיקריות של משפחת מודלים Gemini 3 ואיך להפיק ממנה את המרב.
Gemini 3 Pro משתמש בחשיבה דינמית כברירת מחדל כדי להסיק מסקנות מההנחיות. כדי לקבל תשובות מהירות יותר עם חביון נמוך יותר כשלא נדרשת הסקת מסקנות מורכבת, אפשר להגביל את רמת החשיבה של המודל ל-low.
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
});
console.log(response.text);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Find the race condition in this multi-threaded C++ snippet: [code here]"}]
}]
}'
אפשרויות נוספות

כדאי לעיין באוסף האפליקציות של Gemini 3 כדי לראות איך המודל מתמודד עם הסקת מסקנות מתקדמת, תכנות אוטונומי ומשימות מורכבות מרובות-אופנים.
Gemini 3
Gemini 3 Pro הוא המודל הראשון בסדרה החדשה. gemini-3-pro-preview הוא הכי מתאים למשימות מורכבות שדורשות ידע רחב על העולם והסקה מתקדמת במגוון אופנים.
| מזהה דגם | חלון ההקשר (נכנס / יוצא) | תאריך סף הידע | מחיר (קלט / פלט)* |
|---|---|---|---|
| gemini-3-pro-preview | 1M / 64k | ינואר 2025 | 2$ / 12$ (פחות מ-200,000 טוקנים) 4$ / 18$ (יותר מ-200,000 טוקנים) |
* המחירים הם למיליון טוקנים. המחירים שמופיעים הם עבור טקסט רגיל. יכול להיות שיהיו הבדלים בתעריפים של קלט רב-אופני.
מידע נוסף על מגבלות קצב מפורטות, תמחור של פעולות בחבילות ומחירים זמין בדף המודלים.
תכונות חדשות ב-Gemini 3 API
Gemini 3 מציג פרמטרים חדשים שנועדו לתת למפתחים יותר שליטה בחביון, בעלות ובדיוק המולטי-מודאלי.
רמת החשיבה
הפרמטר thinking_level קובע את העומק המקסימלי של תהליך החשיבה הפנימי של המודל לפני שהוא מפיק תשובה. מודל Gemini 3 מתייחס לרמות האלה כאל הקצאות יחסיות של משאבים לצורך חשיבה, ולא כאל הבטחות מחמירות לגבי טוקנים. אם לא מציינים את thinking_level, Gemini 3 Pro יוגדר כברירת מחדל ל-high.
-
low: מזעור זמן האחזור והעלות. הכי מתאים למשימות פשוטות של ביצוע הוראות, לצ'אט או לאפליקציות עם תפוקה גבוהה -
medium: (בקרוב), לא נתמך בהשקה -
high(ברירת מחדל): הגדלת עומק ההיגיון. יכול להיות שייקח למודל הרבה יותר זמן להגיע לטוקן הראשון, אבל הפלט יהיה מנומק יותר.
רזולוציית המדיה
Gemini 3 מציג שליטה מפורטת בעיבוד של ראייה מולטי-מודאלית באמצעות הפרמטר media_resolution. רזולוציות גבוהות יותר משפרות את היכולת של המודל לקרוא טקסט קטן או לזהות פרטים קטנים, אבל מגדילות את השימוש בטוקנים ואת זמן האחזור. הפרמטר media_resolution קובע את המספר המקסימלי של טוקנים שמוקצים לכל תמונת קלט או פריים של סרטון.
עכשיו אפשר להגדיר את הרזולוציה ל-media_resolution_low, ל-media_resolution_medium או ל-media_resolution_high לכל חלק מדיה בנפרד או באופן גלובלי (דרך generation_config). אם לא מציינים רזולוציה, המודל משתמש בערכי ברירת מחדל אופטימליים על סמך סוג המדיה.
הגדרות מומלצות
| סוג מדיה | הגדרה מומלצת | מקסימום טוקנים | הנחיות לשימוש |
|---|---|---|---|
| תמונות | media_resolution_high |
1120 | מומלץ לרוב משימות ניתוח התמונות כדי להבטיח איכות מקסימלית. |
| קובצי PDF | media_resolution_medium |
560 | אופטימלי להבנת מסמכים; האיכות מגיעה בדרך כלל לנקודת רוויה ב-medium. הגדלה ל-high משפרת לעיתים רחוקות את תוצאות ה-OCR במסמכים רגילים. |
| סרטון (כללי) | media_resolution_low (או media_resolution_medium) |
70 (לכל פריים) | הערה: כשמדובר בסרטונים, ההגדרות low ו-medium מטופלות באופן זהה (70 טוקנים) כדי למקסם את השימוש בהקשר. זה מספיק לרוב המשימות של זיהוי פעולות ותיאור שלהן. |
| סרטון (עם הרבה טקסט) | media_resolution_high |
280 (לכל פריים) | נדרש רק אם תרחיש השימוש כולל קריאת טקסט צפוף (OCR) או פרטים קטנים בתוך פריים של סרטון. |
Python
from google import genai
from google.genai import types
import base64
# The media_resolution parameter is currently only available in the v1alpha API version.
client = genai.Client(http_options={'api_version': 'v1alpha'})
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents=[
types.Content(
parts=[
types.Part(text="What is in this image?"),
types.Part(
inline_data=types.Blob(
mime_type="image/jpeg",
data=base64.b64decode("..."),
),
media_resolution={"level": "media_resolution_high"}
)
]
)
]
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
// The media_resolution parameter is currently only available in the v1alpha API version.
const ai = new GoogleGenAI({ apiVersion: "v1alpha" });
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: [
{
parts: [
{ text: "What is in this image?" },
{
inlineData: {
mimeType: "image/jpeg",
data: "...",
},
mediaResolution: {
level: "media_resolution_high"
}
}
]
}
]
});
console.log(response.text);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1alpha/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [
{ "text": "What is in this image?" },
{
"inlineData": {
"mimeType": "image/jpeg",
"data": "..."
},
"mediaResolution": {
"level": "media_resolution_high"
}
}
]
}]
}'
טמפרטורה
ב-Gemini 3, מומלץ מאוד להשאיר את פרמטר הטמפרטורה בערך ברירת המחדל שלו, 1.0.
במודלים קודמים, כדאי היה לכוונן את הטמפרטורה כדי לשלוט ביצירתיות לעומת דטרמיניזם, אבל יכולות ההסקה של Gemini 3 מותאמות להגדרת ברירת המחדל. שינוי הטמפרטורה (הגדרה של ערך מתחת ל-1.0) עלול להוביל להתנהגות לא צפויה, כמו לולאות או ירידה בביצועים, במיוחד במשימות מורכבות של מתמטיקה או חשיבה.
חתימות של מחשבות
Gemini 3 משתמש בחתימות מחשבה כדי לשמור על הקשר של הנימוקים בין קריאות ה-API. החתימות האלה הן ייצוגים מוצפנים של תהליך החשיבה הפנימי של המודל. כדי לוודא שהמודל שומר על יכולות הנימוק שלו, צריך להחזיר למודל את החתימות האלה בבקשה בדיוק כפי שהן התקבלו:
- קריאה לפונקציה (מחמירה): ה-API מבצע אימות מחמיר של 'התור הנוכחי'. אם חתימות חסרות, תוצג שגיאת 400.
- טקסט/צ'אט: האימות לא נאכף באופן מחמיר, אבל אם לא תציינו חתימות, איכות הנימוקים והתשובות של המודל תרד.
בקשה להפעלת פונקציה (אימות קפדני)
כש-Gemini יוצר functionCall, הוא מסתמך על thoughtSignature כדי לעבד את הפלט של הכלי בצורה נכונה בתור הבא. הקטע 'תור נוכחי' כולל את כל השלבים של המודל (functionCall) והמשתמש (functionResponse) שהתרחשו מאז ההודעה האחרונה של המשתמש text.
- קריאה לפונקציה אחת: החלק
functionCallמכיל חתימה. עליך להחזיר את המכשיר. - קריאות לפונקציות במקביל: רק החלק הראשון
functionCallברשימה יכיל את החתימה. צריך להחזיר את החלקים בדיוק בסדר שבו הם התקבלו. - רב-שלבי (עוקב): אם המודל מפעיל כלי, מקבל תוצאה ומפעיל כלי אחר (באותה תור), שתי הפעלות הפונקציה כוללות חתימות. אתם צריכים להחזיר את כל החתימות שנצברו בהיסטוריה.
טקסט וסטרימינג
בשיחה רגילה או ביצירת טקסט, לא מובטח שתופיע חתימה.
- ללא סטרימינג: החלק הסופי של התוכן בתשובה עשוי להכיל
thoughtSignature, אבל הוא לא תמיד מופיע. אם מוחזרת אחת כזו, כדאי לשלוח אותה בחזרה כדי לשמור על הביצועים הטובים ביותר. - סטרימינג: אם נוצרת חתימה, יכול להיות שהיא תגיע בחלק סופי שמכיל חלק טקסט ריק. מוודאים שהכלי לניתוח הזרם בודק חתימות גם אם שדה הטקסט ריק.
דוגמאות לקוד
בקשות להפעלת פונקציות רבות (עוקבות)
המשתמש שואל שאלה שדורשת שני שלבים נפרדים (בדיקת טיסה -> הזמנת מונית) בתור אחד.
שלב 1: הפעלת הכלי לבחירת מודלים.
המודל מחזיר חתימה <Sig_A>
// Model Response (Turn 1, Step 1) { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // SAVE THIS } ] }
שלב 2: המשתמש שולח תוצאת חיפוש טיסות
אנחנו חייבים לשלוח בחזרה את <Sig_A> כדי לשמור על רצף המחשבה של המודל.
// User Request (Turn 1, Step 2) [ { "role": "user", "parts": [{ "text": "Check flight AA100..." }] }, { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // REQUIRED } ] }, { "role": "user", "parts": [{ "functionResponse": { "name": "check_flight", "response": {...} } }] } ]
שלב 3: המודל מתקשר עם הכלי למוניות
המודל זוכר את העיכוב בטיסה באמצעות <Sig_A> ועכשיו הוא מחליט להזמין מונית. נוצרת חתימה חדשה <Sig_B>.
// Model Response (Turn 1, Step 3) { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", "args": {...} }, "thoughtSignature": "<Sig_B>" // SAVE THIS } ] }
שלב 4: המשתמש שולח תוצאה של מונית
כדי להשלים את התור, צריך לשלוח בחזרה את כל השרשרת: <Sig_A> וגם <Sig_B>.
// User Request (Turn 1, Step 4) [ // ... previous history ... { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", ... }, "thoughtSignature": "<Sig_A>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] }, { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", ... }, "thoughtSignature": "<Sig_B>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] } ]
בקשות מקבילות להפעלת פונקציות
המשתמש שואל: "Check the weather in Paris and London". המודל מחזיר שתי קריאות לפונקציות בתשובה אחת.
// User Request (Sending Parallel Results) [ { "role": "user", "parts": [ { "text": "Check the weather in Paris and London." } ] }, { "role": "model", "parts": [ // 1. First Function Call has the signature { "functionCall": { "name": "check_weather", "args": { "city": "Paris" } }, "thoughtSignature": "<Signature_A>" }, // 2. Subsequent parallel calls DO NOT have signatures { "functionCall": { "name": "check_weather", "args": { "city": "London" } } } ] }, { "role": "user", "parts": [ // 3. Function Responses are grouped together in the next block { "functionResponse": { "name": "check_weather", "response": { "temp": "15C" } } }, { "functionResponse": { "name": "check_weather", "response": { "temp": "12C" } } } ] } ]
טקסט/הסקה בהקשר (ללא אימות)
המשתמש שואל שאלה שדורשת ניתוח של ההקשר בלי להשתמש בכלים חיצוניים. המודל לא מאמת את החתימה באופן מוחלט, אבל הכללת החתימה עוזרת לו לשמור על שרשרת הנימוקים לשאלות המשך.
// User Request (Follow-up question) [ { "role": "user", "parts": [{ "text": "What are the risks of this investment?" }] }, { "role": "model", "parts": [ { "text": "I need to calculate the risk step-by-step. First, I'll look at volatility...", "thoughtSignature": "<Signature_C>" // Recommended to include } ] }, { "role": "user", "parts": [{ "text": "Summarize that in one sentence." }] } ]
מעבר ממודלים אחרים
אם אתם מעבירים מעקב שיחה ממודל אחר (למשל, Gemini 2.5) או להזריק קריאה לפונקציה בהתאמה אישית שלא נוצרה על ידי Gemini 3, לא תהיה לכם חתימה תקפה.
כדי לעקוף את האימות המחמיר בתרחישים הספציפיים האלה, מאכלסים את השדה במחרוזת ה-placeholder הספציפית הזו: "thoughtSignature": "context_engineering_is_the_way_to_go"
פלט מובנה עם כלים
Gemini 3 מאפשר לכם לשלב פלט מובנה עם כלים מובנים, כולל הצמדה לקרקע באמצעות חיפוש Google, הקשר של כתובת URL והרצת קוד.
Python
from google import genai
from google.genai import types
from pydantic import BaseModel, Field
from typing import List
class MatchResult(BaseModel):
winner: str = Field(description="The name of the winner.")
final_match_score: str = Field(description="The final match score.")
scorers: List[str] = Field(description="The name of the scorer.")
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Search for all details for the latest Euro.",
config={
"tools": [
{"google_search": {}},
{"url_context": {}}
],
"response_mime_type": "application/json",
"response_json_schema": MatchResult.model_json_schema(),
},
)
result = MatchResult.model_validate_json(response.text)
print(result)
JavaScript
import { GoogleGenAI } from "@google/genai";
import { z } from "zod";
import { zodToJsonSchema } from "zod-to-json-schema";
const ai = new GoogleGenAI({});
const matchSchema = z.object({
winner: z.string().describe("The name of the winner."),
final_match_score: z.string().describe("The final score."),
scorers: z.array(z.string()).describe("The name of the scorer.")
});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: "Search for all details for the latest Euro.",
config: {
tools: [
{ googleSearch: {} },
{ urlContext: {} }
],
responseMimeType: "application/json",
responseJsonSchema: zodToJsonSchema(matchSchema),
},
});
const match = matchSchema.parse(JSON.parse(response.text));
console.log(match);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Search for all details for the latest Euro."}]
}],
"tools": [
{"googleSearch": {}},
{"urlContext": {}}
],
"generationConfig": {
"responseMimeType": "application/json",
"responseJsonSchema": {
"type": "object",
"properties": {
"winner": {"type": "string", "description": "The name of the winner."},
"final_match_score": {"type": "string", "description": "The final score."},
"scorers": {
"type": "array",
"items": {"type": "string"},
"description": "The name of the scorer."
}
},
"required": ["winner", "final_match_score", "scorers"]
}
}
}'
העברה מ-Gemini 2.5
Gemini 3 היא קבוצת המודלים המתקדמת ביותר שלנו עד היום, והיא מציעה שיפור הדרגתי לעומת Gemini 2.5 Pro. כשמבצעים העברה, חשוב לקחת בחשבון את הנקודות הבאות:
- חשיבה: אם השתמשתם בעבר בהנדסת הנחיות מורכבת (כמו Chain-of-thought) כדי לגרום ל-Gemini 2.5 להסיק מסקנות, נסו את Gemini 3 עם
thinking_level: "high"והנחיות פשוטות. - הגדרות הטמפרטורה: אם הקוד הקיים שלכם מגדיר טמפרטורה באופן מפורש (במיוחד לערכים נמוכים של פלט דטרמיניסטי), מומלץ להסיר את הפרמטר הזה ולהשתמש בערך ברירת המחדל של Gemini 3, שהוא 1.0, כדי למנוע בעיות פוטנציאליות של לולאות או ירידה בביצועים במשימות מורכבות.
- הבנת מסמכים וקובצי PDF: הרזולוציה של ה-OCR שמוגדרת כברירת מחדל לקובצי PDF השתנתה. אם הסתמכתם על התנהגות ספציפית של ניתוח מסמכים צפופים, כדאי לבדוק את ההגדרה החדשה
media_resolution_highכדי לוודא שהדיוק נשמר. - צריכת אסימונים: מעבר לברירות המחדל של Gemini 3 Pro עשוי להגדיל את השימוש באסימונים עבור קובצי PDF, אבל להקטין את השימוש באסימונים עבור סרטונים. אם הבקשות חורגות עכשיו מחלון ההקשר בגלל רזולוציות ברירת מחדל גבוהות יותר, מומלץ להקטין באופן מפורש את רזולוציית המדיה.
- פילוח תמונות: אין תמיכה ביכולות של פילוח תמונות (החזרת מסכות ברמת הפיקסל לאובייקטים) ב-Gemini 3 Pro. לעומסי עבודה שדורשים פילוח תמונות מקורי, מומלץ להמשיך להשתמש ב-Gemini 2.5 Flash עם השבתת התכונה 'חשיבה' או ב-Gemini Robotics-ER 1.5.
תאימות ל-OpenAI
למשתמשים שמשתמשים בשכבת התאימות של OpenAI, פרמטרים רגילים ממופים אוטומטית למקבילים ב-Gemini:
-
reasoning_effort(OAI) ממופה ל-thinking_level(Gemini). שימו לב:reasoning_effortmedium ממופה ל-thinking_levelhigh.
שיטות מומלצות לכתיבת הנחיות
Gemini 3 הוא מודל הסקת מסקנות, ולכן צריך לשנות את ההנחיות שנותנים לו.
- הוראות מדויקות: חשוב להקפיד על תמציתיות בהנחיות. כדי לקבל את התשובות הכי טובות מ-Gemini 3, מומלץ לתת הוראות ברורות וישירות. יכול להיות שהיא תנתח יתר על המידה טכניקות מפורטות או מורכבות מדי של הנדסת הנחיות שמשמשות מודלים ישנים יותר.
- פירוט הפלט: כברירת מחדל, Gemini 3 פחות מפורט ומעדיף לספק תשובות ישירות ויעילות. אם התרחיש לדוגמה שלכם דורש אישיות יותר שיחתית או "פטפטנית", אתם צריכים להנחות את המודל באופן מפורש בהנחיה (למשל, "תסביר את זה כמו עוזר ידידותי ופטפטן").
- ניהול הקשר: כשעובדים עם מערכי נתונים גדולים (למשל, ספרים שלמים, בסיסי קוד או סרטונים ארוכים), כדאי למקם את ההוראות או השאלות הספציפיות בסוף ההנחיה, אחרי הקשר של הנתונים. כדי להצמיד את ההסבר של המודל לנתונים שסיפקתם, כדאי להתחיל את השאלה בניסוח כמו "בהתבסס על המידע שלמעלה...".
מידע נוסף על אסטרטגיות לעיצוב הנחיות זמין במדריך להנדסת הנחיות.
שאלות נפוצות
מהו תאריך הסיום של תקופת האימון של Gemini 3 Pro? הידע של Gemini 3 מוגבל למידע עד ינואר 2025. כדי לקבל מידע עדכני יותר, אפשר להשתמש בכלי הארקה של חיפוש.
מהן המגבלות של חלון ההקשר? Gemini 3 Pro תומך בחלון הקשר של מיליון טוקנים לקלט ועד 64,000 טוקנים לפלט.
יש רמת מינוי בחינם ל-Gemini 3 Pro? אפשר לנסות את המודל בחינם ב-Google AI Studio, אבל נכון לעכשיו אין רמת שימוש חינמית ל-
gemini-3-pro-previewב-Gemini API.האם קוד
thinking_budgetהישן שלי ימשיך לפעול? כן, עדיין יש תמיכה ב-thinking_budgetלצורך תאימות לאחור, אבל מומלץ לעבור ל-thinking_levelכדי לקבל ביצועים צפויים יותר. אל תשתמשו בשניהם באותה בקשה.האם Gemini 3 תומך ב-Batch API? כן, Gemini 3 תומך ב-Batch API.
האם יש תמיכה בשמירת נתונים במטמון לפי הקשר? כן, שמירת ההקשר במטמון נתמכת ב-Gemini 3. מספר הטוקנים המינימלי שנדרש כדי להפעיל שמירה במטמון הוא 2,048 טוקנים.
אילו כלים נתמכים ב-Gemini 3? Gemini 3 תומך בחיפוש Google, בחיפוש קבצים, בהרצת קוד ובהקשר של כתובת URL. הוא תומך גם בקריאה לפונקציות סטנדרטית עבור כלים מותאמים אישית משלכם. שימו לב שאין כרגע תמיכה במפות Google ובשימוש במחשב.
השלבים הבאים
- איך מתחילים להשתמש ב-Gemini 3 Cookbook
- כדאי לעיין במדריך הייעודי בנושא רמות חשיבה ובנושא המעבר מתקציב חשיבה לרמות חשיבה.