Gemini 3 è la nostra famiglia di modelli più intelligente di sempre, basata su un ragionamento all'avanguardia. È progettato per dare vita a qualsiasi idea grazie a workflow agentici, codifica autonoma e attività multimodali complesse. Questa guida illustra le funzionalità principali della famiglia di modelli Gemini 3 e come sfruttarle al meglio.
Esplora la nostra raccolta di app Gemini 3 per scoprire come il modello gestisce il ragionamento avanzato, la programmazione autonoma e le attività multimodali complesse.
Inizia con poche righe di codice:
Python
from google import genai
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: "Find the race condition in this multi-threaded C++ snippet: [code here]",
});
console.log(response.text);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Find the race condition in this multi-threaded C++ snippet: [code here]"}]
}]
}'
Scopri la serie Gemini 3
Gemini 3 Pro, il primo modello della nuova serie, è ideale per le attività complesse che richiedono un'ampia conoscenza del mondo e un ragionamento avanzato tra le modalità.
Gemini 3 Flash è il nostro modello più recente della serie 3, con un'intelligenza di livello Pro alla velocità e al prezzo di Flash.
Nano Banana Pro (noto anche come Gemini 3 Pro Image) è il nostro modello di generazione di immagini di altissima qualità.
Al momento, tutti i modelli Gemini 3 sono in anteprima.
| ID modello | Finestra contestuale (in entrata / in uscita) | Knowledge Cutoff | Prezzi (input / output)* |
|---|---|---|---|
| gemini-3-pro-preview | 1 milione / 64.000 | Gennaio 2025 | $2 / $12 (<200.000 token) $4 / $18 (>200.000 token) |
| gemini-3-flash-preview | 1 milione / 64.000 | Gennaio 2025 | 0,50 $ / 3 $ |
| gemini-3-pro-image-preview | 65.000 / 32.000 | Gennaio 2025 | 2 $ (input di testo) / 0,134 $ (output di immagine)** |
* I prezzi si riferiscono a 1 milione di token, se non diversamente indicato. ** Il prezzo delle immagini varia in base alla risoluzione. Per maggiori dettagli, consulta la pagina relativa ai prezzi.
Per limiti, prezzi e informazioni aggiuntive dettagliati, consulta la pagina dei modelli.
Nuove funzionalità dell'API in Gemini 3
Gemini 3 introduce nuovi parametri progettati per offrire agli sviluppatori un maggiore controllo su latenza, costi e fedeltà multimodale.
Livello di pensiero
I modelli della serie Gemini 3 utilizzano per impostazione predefinita il pensiero dinamico per ragionare sui prompt. Puoi utilizzare il parametro thinking_level, che controlla la profondità massima del processo di ragionamento interno del modello prima che produca una risposta. Gemini 3 tratta questi livelli come allocazioni relative per il ragionamento, anziché come garanzie rigide di token.
Se thinking_level non è specificato, Gemini 3 utilizzerà high come valore predefinito. Per risposte più rapide e con una latenza inferiore quando non è necessario un ragionamento complesso, puoi limitare il livello di pensiero del modello a low.
Livelli di pensiero di Gemini 3 Pro e Flash:
I seguenti livelli di ragionamento sono supportati sia da Gemini 3 Pro sia da Flash:
low: riduce al minimo la latenza e i costi. Ideale per seguire istruzioni semplici, chat o applicazioni con throughput elevatohigh(valore predefinito, dinamico): massimizza la profondità del ragionamento. Il modello potrebbe impiegare molto più tempo per raggiungere un primo token, ma l'output sarà più ragionato.
Livelli di pensiero di Gemini 3 Flash
Oltre ai livelli precedenti, Gemini 3 Flash supporta anche i seguenti livelli di pensiero attualmente non supportati da Gemini 3 Pro:
minimal: corrisponde all'impostazione "nessun pensiero" per la maggior parte delle query. Il modello potrebbe pensare in modo molto minimale per attività di programmazione complesse. Riduce al minimo la latenza per le applicazioni di chat o ad alto throughput.medium: Pensiero equilibrato per la maggior parte delle attività.
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="How does AI work?",
config=types.GenerateContentConfig(
thinking_config=types.ThinkingConfig(thinking_level="low")
),
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({});
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: "How does AI work?",
config: {
thinkingConfig: {
thinkingLevel: "low",
}
},
});
console.log(response.text);
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "How does AI work?"}]
}],
"generationConfig": {
"thinkingConfig": {
"thinkingLevel": "low"
}
}
}'
Risoluzione dei contenuti multimediali
Gemini 3 introduce un controllo granulare sull'elaborazione della visione multimodale tramite il parametro media_resolution. Risoluzioni più elevate migliorano la capacità del modello di leggere testi piccoli o identificare piccoli dettagli, ma aumentano l'utilizzo di token e la latenza. Il parametro media_resolution determina il numero massimo di token allocati per ogni immagine di input o frame video.
Ora puoi impostare la risoluzione su media_resolution_low, media_resolution_medium, media_resolution_high o media_resolution_ultra_high per ogni parte multimediale o a livello globale (tramite generation_config, la risoluzione globale non è disponibile per l'ultra definizione). Se non specificato, il modello utilizza i valori predefiniti ottimali in base al tipo di media.
Impostazioni consigliate
| Tipo di media | Impostazione consigliata | Token max | Indicazioni per l'utilizzo |
|---|---|---|---|
| Immagini | media_resolution_high |
1120 | Consigliato per la maggior parte delle attività di analisi delle immagini per garantire la massima qualità. |
media_resolution_medium |
560 | Ottimale per la comprensione dei documenti; la qualità in genere satura a medium. L'aumento a high raramente migliora i risultati dell'OCR per i documenti standard. |
|
| Video (Generale) | media_resolution_low (o media_resolution_medium) |
70 (per frame) | Nota:per i video, le impostazioni low e medium vengono trattate in modo identico (70 token) per ottimizzare l'utilizzo del contesto. Questo è sufficiente per la maggior parte delle attività di riconoscimento e descrizione delle azioni. |
| Video (con molto testo) | media_resolution_high |
280 (per frame) | Obbligatorio solo quando il caso d'uso prevede la lettura di testo denso (OCR) o piccoli dettagli all'interno dei fotogrammi video. |
Python
from google import genai
from google.genai import types
import base64
# The media_resolution parameter is currently only available in the v1alpha API version.
client = genai.Client(http_options={'api_version': 'v1alpha'})
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents=[
types.Content(
parts=[
types.Part(text="What is in this image?"),
types.Part(
inline_data=types.Blob(
mime_type="image/jpeg",
data=base64.b64decode("..."),
),
media_resolution={"level": "media_resolution_high"}
)
]
)
]
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
// The media_resolution parameter is currently only available in the v1alpha API version.
const ai = new GoogleGenAI({ apiVersion: "v1alpha" });
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: [
{
parts: [
{ text: "What is in this image?" },
{
inlineData: {
mimeType: "image/jpeg",
data: "...",
},
mediaResolution: {
level: "media_resolution_high"
}
}
]
}
]
});
console.log(response.text);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1alpha/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [
{ "text": "What is in this image?" },
{
"inlineData": {
"mimeType": "image/jpeg",
"data": "..."
},
"mediaResolution": {
"level": "media_resolution_high"
}
}
]
}]
}'
Temperatura
Per Gemini 3, ti consigliamo vivamente di mantenere il parametro di temperatura sul valore predefinito di 1.0.
Mentre i modelli precedenti spesso traevano vantaggio dalla regolazione della temperatura per controllare la creatività rispetto al determinismo, le capacità di ragionamento di Gemini 3 sono ottimizzate per l'impostazione predefinita. La modifica della temperatura (impostandola su un valore inferiore a 1.0) può comportare un comportamento imprevisto, ad esempio loop o prestazioni ridotte, in particolare in attività matematiche o di ragionamento complesse.
Firme dei pensieri
Gemini 3 utilizza le firme del pensiero per mantenere il contesto del ragionamento tra le chiamate API. Queste firme sono rappresentazioni criptate del processo di pensiero interno del modello. Per garantire che il modello mantenga le sue capacità di ragionamento, devi restituire queste firme al modello nella tua richiesta esattamente come sono state ricevute:
Chiamata di funzioni (rigorosa): l'API applica una convalida rigorosa del "turno corrente". Le firme mancanti genereranno un errore 400.
Testo/Chat:la convalida non è rigorosamente applicata, ma l'omissione delle firme peggiorerà la qualità del ragionamento e delle risposte del modello.
Generazione/modifica di immagini (rigorosa): l'API applica una convalida rigorosa a tutte le parti del modello, incluso un
thoughtSignature. Le firme mancanti genereranno un errore 400.
Chiamata di funzione (convalida rigorosa)
Quando Gemini genera un functionCall, si basa sul thoughtSignature per elaborare correttamente l'output dello strumento nel turno successivo. Il "Turno attuale" include tutti i passaggi del modello (functionCall) e dell'utente (functionResponse) che si sono verificati dall'ultimo messaggio Utente text standard.
- Chiamata di una singola funzione:la parte
functionCallcontiene una firma. Devi restituirlo. - Chiamate di funzioni parallele:solo la prima parte
functionCalldell'elenco conterrà la firma. Devi restituire le parti nell'ordine esatto in cui le hai ricevute. - Multistep (sequenziale): se il modello chiama uno strumento, riceve un risultato e chiama un altro strumento (all'interno dello stesso turno), entrambe le chiamate di funzione hanno firme. Devi restituire tutte le firme accumulate nella cronologia.
Testo e streaming
Per la generazione di chat o testi standard, la presenza di una firma non è garantita.
- Non in streaming: l'ultima parte dei contenuti della risposta potrebbe contenere un
thoughtSignature, anche se non è sempre presente. Se uno viene restituito, devi rimandarlo indietro per mantenere le migliori prestazioni. - Streaming: se viene generata una firma, potrebbe arrivare in un blocco finale che contiene una parte di testo vuota. Assicurati che l'analizzatore di stream controlli le firme anche se il campo di testo è vuoto.
Generazione e modifica di immagini
Per gemini-3-pro-image-preview, le firme del pensiero sono fondamentali per la modifica conversazionale. Quando chiedi al modello di modificare un'immagine, si basa su thoughtSignature del turno precedente per comprendere la composizione e la logica dell'immagine originale.
- Modifica:le firme sono garantite nella prima parte dopo i pensieri della risposta (
textoinlineData) e in ogni parteinlineDatasuccessiva. Per evitare errori, devi restituire tutte queste firme.
Esempi di codice
Chiamata di funzione in più passaggi (sequenziale)
L'utente pone una domanda che richiede due passaggi separati (controlla volo -> prenota taxi) in un unico turno.
Passaggio 1: simula le chiamate allo strumento di volo.
Il modello restituisce una firma <Sig_A>
// Model Response (Turn 1, Step 1) { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // SAVE THIS } ] }
Passaggio 2: l'utente invia il risultato del volo
Dobbiamo inviare di nuovo <Sig_A> per mantenere il filo del discorso del modello.
// User Request (Turn 1, Step 2) [ { "role": "user", "parts": [{ "text": "Check flight AA100..." }] }, { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", "args": {...} }, "thoughtSignature": "<Sig_A>" // REQUIRED } ] }, { "role": "user", "parts": [{ "functionResponse": { "name": "check_flight", "response": {...} } }] } ]
Passaggio 3: il modello chiama lo strumento per i taxi
Il modello ricorda il ritardo del volo tramite <Sig_A> e ora decide di prenotare un taxi. Viene generata una nuova firma <Sig_B>.
// Model Response (Turn 1, Step 3) { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", "args": {...} }, "thoughtSignature": "<Sig_B>" // SAVE THIS } ] }
Passaggio 4: l'utente invia il risultato del taxi
Per completare il turno, devi inviare di nuovo l'intera catena: <Sig_A> E <Sig_B>.
// User Request (Turn 1, Step 4) [ // ... previous history ... { "role": "model", "parts": [ { "functionCall": { "name": "check_flight", ... }, "thoughtSignature": "<Sig_A>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] }, { "role": "model", "parts": [ { "functionCall": { "name": "book_taxi", ... }, "thoughtSignature": "<Sig_B>" } ] }, { "role": "user", "parts": [{ "functionResponse": {...} }] } ]
Chiamata di funzione parallela
L'utente chiede: "Controlla il meteo a Parigi e Londra". Il modello restituisce due chiamate di funzioni in una sola risposta.
// User Request (Sending Parallel Results) [ { "role": "user", "parts": [ { "text": "Check the weather in Paris and London." } ] }, { "role": "model", "parts": [ // 1. First Function Call has the signature { "functionCall": { "name": "check_weather", "args": { "city": "Paris" } }, "thoughtSignature": "<Signature_A>" }, // 2. Subsequent parallel calls DO NOT have signatures { "functionCall": { "name": "check_weather", "args": { "city": "London" } } } ] }, { "role": "user", "parts": [ // 3. Function Responses are grouped together in the next block { "functionResponse": { "name": "check_weather", "response": { "temp": "15C" } } }, { "functionResponse": { "name": "check_weather", "response": { "temp": "12C" } } } ] } ]
Testo/Ragionamento nel contesto (nessuna convalida)
L'utente pone una domanda che richiede un ragionamento contestuale senza strumenti esterni. Sebbene non sia rigorosamente convalidata, l'inclusione della firma aiuta il modello a mantenere la catena di ragionamento per le domande successive.
// User Request (Follow-up question) [ { "role": "user", "parts": [{ "text": "What are the risks of this investment?" }] }, { "role": "model", "parts": [ { "text": "I need to calculate the risk step-by-step. First, I'll look at volatility...", "thoughtSignature": "<Signature_C>" // Recommended to include } ] }, { "role": "user", "parts": [{ "text": "Summarize that in one sentence." }] } ]
Generazione e modifica di immagini
Per la generazione di immagini, le firme vengono convalidate rigorosamente. Vengono visualizzati nella prima parte (testo o immagine) e in tutte le parti successive dell'immagine. Tutte le carte devono essere restituite nel turno successivo.
// Model Response (Turn 1) { "role": "model", "parts": [ // 1. First part ALWAYS has a signature (even if text) { "text": "I will generate a cyberpunk city...", "thoughtSignature": "<Signature_D>" }, // 2. ALL InlineData (Image) parts ALWAYS have signatures { "inlineData": { ... }, "thoughtSignature": "<Signature_E>" }, ] } // User Request (Turn 2 - Requesting an Edit) { "contents": [ // History must include ALL signatures received { "role": "user", "parts": [{ "text": "Generate a cyberpunk city" }] }, { "role": "model", "parts": [ { "text": "...", "thoughtSignature": "<Signature_D>" }, { "inlineData": "...", "thoughtSignature": "<Signature_E>" }, ] }, // New User Prompt { "role": "user", "parts": [{ "text": "Make it daytime." }] } ] }
Eseguire la migrazione da altri modelli
Se stai trasferendo una traccia della conversazione da un altro modello (ad es. Gemini 2.5) o inserendo una chiamata di funzione personalizzata non generata da Gemini 3, non avrai una firma valida.
Per ignorare la convalida rigorosa in questi scenari specifici, compila il campo con questa stringa fittizia specifica: "thoughtSignature": "context_engineering_is_the_way_to_go"
Output strutturati con strumenti
I modelli Gemini 3 ti consentono di combinare gli output strutturati con strumenti integrati, tra cui Grounding con la Ricerca Google, Contesto URL ed Esecuzione di codice.
Python
from google import genai
from google.genai import types
from pydantic import BaseModel, Field
from typing import List
class MatchResult(BaseModel):
winner: str = Field(description="The name of the winner.")
final_match_score: str = Field(description="The final match score.")
scorers: List[str] = Field(description="The name of the scorer.")
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-preview",
contents="Search for all details for the latest Euro.",
config={
"tools": [
{"google_search": {}},
{"url_context": {}}
],
"response_mime_type": "application/json",
"response_json_schema": MatchResult.model_json_schema(),
},
)
result = MatchResult.model_validate_json(response.text)
print(result)
JavaScript
import { GoogleGenAI } from "@google/genai";
import { z } from "zod";
import { zodToJsonSchema } from "zod-to-json-schema";
const ai = new GoogleGenAI({});
const matchSchema = z.object({
winner: z.string().describe("The name of the winner."),
final_match_score: z.string().describe("The final score."),
scorers: z.array(z.string()).describe("The name of the scorer.")
});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-preview",
contents: "Search for all details for the latest Euro.",
config: {
tools: [
{ googleSearch: {} },
{ urlContext: {} }
],
responseMimeType: "application/json",
responseJsonSchema: zodToJsonSchema(matchSchema),
},
});
const match = matchSchema.parse(JSON.parse(response.text));
console.log(match);
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Search for all details for the latest Euro."}]
}],
"tools": [
{"googleSearch": {}},
{"urlContext": {}}
],
"generationConfig": {
"responseMimeType": "application/json",
"responseJsonSchema": {
"type": "object",
"properties": {
"winner": {"type": "string", "description": "The name of the winner."},
"final_match_score": {"type": "string", "description": "The final score."},
"scorers": {
"type": "array",
"items": {"type": "string"},
"description": "The name of the scorer."
}
},
"required": ["winner", "final_match_score", "scorers"]
}
}
}'
Generazione di immagini
Gemini 3 Pro Image ti consente di generare e modificare immagini da prompt di testo. Utilizza il ragionamento per "pensare" a un prompt e può recuperare dati in tempo reale, come previsioni meteo o grafici azionari, prima di utilizzare la Ricerca Google per generare immagini ad alta fedeltà.
Funzionalità nuove e migliorate:
- Rendering di testo e 4K:genera testo e diagrammi nitidi e leggibili con risoluzioni fino a 2K e 4K.
- Generazione fondata: utilizza lo strumento
google_searchper verificare i fatti e generare immagini basate su informazioni del mondo reale. - Editing conversazionale:modifica delle immagini in più passaggi semplicemente chiedendo di apportare modifiche (ad es. Crea uno sfondo con un tramonto. Questo flusso di lavoro si basa sulle Firme del pensiero per preservare il contesto visivo tra i turni.
Per informazioni complete su proporzioni, flussi di lavoro di modifica e opzioni di configurazione, consulta la guida alla generazione di immagini.
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-3-pro-image-preview",
contents="Generate an infographic of the current weather in Tokyo.",
config=types.GenerateContentConfig(
tools=[{"google_search": {}}],
image_config=types.ImageConfig(
aspect_ratio="16:9",
image_size="4K"
)
)
)
image_parts = [part for part in response.parts if part.inline_data]
if image_parts:
image = image_parts[0].as_image()
image.save('weather_tokyo.png')
image.show()
JavaScript
import { GoogleGenAI } from "@google/genai";
import * as fs from "node:fs";
const ai = new GoogleGenAI({});
async function run() {
const response = await ai.models.generateContent({
model: "gemini-3-pro-image-preview",
contents: "Generate a visualization of the current weather in Tokyo.",
config: {
tools: [{ googleSearch: {} }],
imageConfig: {
aspectRatio: "16:9",
imageSize: "4K"
}
}
});
for (const part of response.candidates[0].content.parts) {
if (part.inlineData) {
const imageData = part.inlineData.data;
const buffer = Buffer.from(imageData, "base64");
fs.writeFileSync("weather_tokyo.png", buffer);
}
}
}
run();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [{
"parts": [{"text": "Generate a visualization of the current weather in Tokyo."}]
}],
"tools": [{"googleSearch": {}}],
"generationConfig": {
"imageConfig": {
"aspectRatio": "16:9",
"imageSize": "4K"
}
}
}'
Risposta di esempio

Migrazione da Gemini 2.5
Gemini 3 è la nostra famiglia di modelli più potente fino ad oggi e offre un miglioramento graduale rispetto a Gemini 2.5. Quando esegui la migrazione, tieni presente quanto segue:
- Ragionamento:se in precedenza utilizzavi tecniche di prompt complesse (come la catena di pensiero) per forzare Gemini 2.5 a ragionare, prova Gemini 3 con
thinking_level: "high"e prompt semplificati. - Impostazioni della temperatura:se il codice esistente imposta esplicitamente la temperatura (soprattutto su valori bassi per output deterministici), ti consigliamo di rimuovere questo parametro e di utilizzare il valore predefinito di Gemini 3 pari a 1.0 per evitare potenziali problemi di loop o un calo delle prestazioni per attività complesse.
- Comprensione di PDF e documenti:la risoluzione OCR predefinita per i PDF è cambiata. Se ti affidi a un comportamento specifico per l'analisi dei documenti densi, testa la nuova impostazione
media_resolution_highper garantire una precisione continua. - Utilizzo dei token:la migrazione alle impostazioni predefinite di Gemini 3 potrebbe aumentare l'utilizzo dei token per i PDF, ma diminuirlo per i video. Se le richieste ora superano la finestra contestuale a causa delle risoluzioni predefinite più elevate, ti consigliamo di ridurre esplicitamente la risoluzione dei contenuti multimediali.
- Segmentazione delle immagini:le funzionalità di segmentazione delle immagini (che restituiscono maschere a livello di pixel per gli oggetti) non sono supportate in Gemini 3 Pro o Gemini 3 Flash. Per i carichi di lavoro che richiedono la segmentazione nativa delle immagini, ti consigliamo di continuare a utilizzare Gemini 2.5 Flash con la funzionalità di ragionamento disattivata o Gemini Robotics-ER 1.5.
- Supporto degli strumenti: gli strumenti di grounding di Maps e di utilizzo del computer non sono ancora supportati per i modelli Gemini 3, pertanto non verranno migrati. Inoltre, la combinazione di strumenti integrati con la chiamata di funzioni non è ancora supportata.
Compatibilità con OpenAI
Per gli utenti che utilizzano il livello di compatibilità OpenAI, i parametri standard vengono mappati automaticamente agli equivalenti di Gemini:
reasoning_effort(OAI) corrisponde athinking_level(Gemini). Tieni presente che la qualitàreasoning_effortmedia corrisponde alla qualitàthinking_levelalta su Gemini 3 Flash.
Best practice per la creazione di prompt
Gemini 3 è un modello di ragionamento che cambia il modo in cui devi creare i prompt.
- Istruzioni precise: sii conciso nei prompt di input. Gemini 3 risponde al meglio a istruzioni dirette e chiare. Potrebbe analizzare in modo eccessivo tecniche di prompt engineering complesse o prolisse utilizzate per i modelli precedenti.
- Livello di dettaglio dell'output: per impostazione predefinita, Gemini 3 è meno prolisso e preferisce fornire risposte dirette ed efficienti. Se il tuo caso d'uso richiede una persona più colloquiale o "chiacchierona", devi indirizzare esplicitamente il modello nel prompt (ad es. "Spiega questo testo come se fossi un assistente cordiale e loquace".
- Gestione del contesto:quando lavori con set di dati di grandi dimensioni (ad es. libri interi, codebase o video lunghi), inserisci le istruzioni o le domande specifiche alla fine del prompt, dopo il contesto dei dati. Ancora il ragionamento del modello ai dati forniti iniziando la domanda con una frase come "In base alle informazioni riportate sopra…".
Scopri di più sulle strategie di progettazione dei prompt nella guida all'ingegneria dei prompt.
Domande frequenti
Qual è la data limite per le conoscenze di Gemini 3? I modelli Gemini 3 hanno un limite di conoscenza di gennaio 2025. Per informazioni più recenti, utilizza lo strumento Ricerca basata su dati reali.
Quali sono i limiti della finestra contestuale? I modelli Gemini 3 supportano una finestra contestuale di input di 1 milione di token e fino a 64.000 token di output.
Esiste un livello senza costi per Gemini 3? Gemini 3 Flash
gemini-3-flash-previewha un livello senza costi nell'API Gemini. Puoi provare sia Gemini 3 Pro che Flash senza costi in Google AI Studio, ma al momento non è disponibile alcun livello senza costi pergemini-3-pro-previewnell'API Gemini.Il mio vecchio codice
thinking_budgetcontinuerà a funzionare? Sì,thinking_budgetè ancora supportato per la compatibilità con le versioni precedenti, ma ti consigliamo di eseguire la migrazione athinking_levelper un rendimento più prevedibile. Non utilizzarli entrambi nella stessa richiesta.Gemini 3 supporta l'API Batch? Sì, Gemini 3 supporta l'API Batch.
La memorizzazione nella cache del contesto è supportata? Sì, la memorizzazione nella cache del contesto è supportata per Gemini 3.
Quali strumenti sono supportati in Gemini 3? Gemini 3 supporta la Ricerca Google, la Ricerca file, l'Esecuzione di codice e il Contesto URL. Supporta anche la chiamata di funzione standard per i tuoi strumenti personalizzati (ma non con gli strumenti integrati). Tieni presente che Grounding con Google Maps e Utilizzo del computer non sono attualmente supportati.
Passaggi successivi
- Inizia a utilizzare il cookbook di Gemini 3
- Consulta la guida dedicata del Cookbook sui livelli di pensiero e su come eseguire la migrazione dal budget di pensiero ai livelli di pensiero.