I modelli della serie Gemini 2.5 utilizzano un "processo di pensiero" interno durante la generazione della risposta. Questo processo contribuisce a migliorare le loro capacità di ragionamento e li aiuta a utilizzare la pianificazione in più passaggi per risolvere attività complesse. Questo li rende particolarmente efficaci per la programmazione, la matematica avanzata, l'analisi dei dati e altre attività che richiedono pianificazione o pensiero.
Questa guida mostra come utilizzare le funzionalità di pensiero di Gemini tramite l'API Gemini.
Utilizza modelli di pensiero
I modelli con funzionalità di pensiero sono disponibili in
Google AI Studio
e tramite l'API Gemini. Il pensiero è attivo per impostazione predefinita sia nell'API sia in AI Studio perché i modelli della serie 2.5 hanno la capacità di decidere automaticamente quando e quanto pensare in base al prompt. Per la maggior parte dei casi d'uso, è consigliabile lasciare attiva questa impostazione. Tuttavia, se vuoi disattivare il pensiero, puoi farlo impostando il parametro thinkingBudget
su 0.
Inviare una richiesta di base
Python
from google import genai
client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents=prompt
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: prompt,
});
console.log(response.text);
}
main();
Vai
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Impostare il budget nei modelli di pensiero
Il parametro thinkingBudget
fornisce al modello indicazioni sul numero di
token di pensiero che può utilizzare per generare una risposta. Un
numero maggiore di token è in genere associato a un pensiero più dettagliato,
che è necessario per risolvere attività più complesse. thinkingBudget
deve essere un
numero intero compreso tra 0 e 24576. Se imposti il budget di pensiero su 0, la funzionalità viene disattivata.
A seconda del prompt, il modello potrebbe superare o sottovalutare il budget di token.
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents="Explain the Occam's Razor concept and provide everyday examples of it",
config=types.GenerateContentConfig(
thinking_config=types.ThinkingConfig(thinking_budget=1024)
),
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: "Explain the Occam's Razor concept and provide everyday examples of it",
config: {
thinkingConfig: {
thinkingBudget: 1024,
},
},
});
console.log(response.text);
}
main();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
}
]
}
],
"generationConfig": {
"thinkingConfig": {
"thinkingBudget": 1024
}
}
}'
Utilizzare strumenti con modelli di pensiero
Puoi combinare l'utilizzo dei modelli di pensiero con qualsiasi strumento e funzionalità di Gemini per eseguire azioni diverse dalla generazione di testo. In questo modo, possono interagire con sistemi esterni, eseguire codice o accedere a informazioni in tempo reale, incorporando i risultati nel loro ragionamento e nella risposta finale.
Lo strumento di ricerca consente al modello di eseguire query su motori di ricerca esterni per trovare informazioni aggiornate o informazioni diverse da quelle dei dati di addestramento. Questa opzione è utile per domande su eventi recenti o argomenti molto specifici.
Lo strumento di esecuzione del codice consente al modello di generare ed eseguire codice Python per eseguire calcoli, manipolare i dati o risolvere problemi che sono gestiti meglio in modo algoritmico. Il modello riceve l'output del codice e può utilizzarlo nella risposta.
Con l'output strutturato, puoi limitare Gemini a rispondere con JSON, un formato di output strutturato adatto all'elaborazione automatica. Questo è particolarmente utile per integrare l'output del modello nelle applicazioni.
La chiamata di funzione collega il modello di pensiero a strumenti e API esterni, in modo che possa ragionare su quando chiamare la funzione corretta e su quali parametri fornire.
Best practice
Questa sezione include alcune indicazioni per utilizzare in modo efficiente i modelli di pensiero. Come sempre, seguendo le nostre linee guida e best practice per i prompt otterrai i risultati migliori.
Debug e gestione
Esamina il ragionamento: quando non ricevi la risposta prevista dai modelli di pensiero, può essere utile analizzare attentamente il processo di ragionamento di Gemini. Puoi vedere in che modo ha suddiviso l'attività ed è arrivato alla conclusione e utilizzare queste informazioni per correggere il modello in modo da ottenere i risultati corretti.
Fornisci indicazioni per il ragionamento: se prevedi un output particolarmente lungo, ti consigliamo di fornire indicazioni nel prompt per limitare la quantità di pensiero utilizzata dal modello. In questo modo puoi riservare più output del token per la tua risposta.
Complessità delle attività
- Attività semplici (il pensiero potrebbe essere disattivato): per richieste semplici, non è necessario un ragionamento complesso, ad esempio il recupero o la classificazione di fatti semplici. Ecco alcuni esempi:
- "Dove è stata fondata DeepMind?"
- "Questa email richiede una riunione o fornisce solo informazioni?"
- Attività di media complessità (valore predefinito/un po' di pensiero): molte richieste comuni beneficiano di un certo grado di elaborazione passo passo o di una comprensione più approfondita. Gemini può utilizzare in modo flessibile la funzionalità di pensiero per attività quali:
- Fai un'analogia tra la fotosintesi e la crescita.
- Confronta e contrapponi le auto elettriche e le auto ibride.
- Attività complesse (massima capacità di pensiero): per le sfide davvero complesse, l'IA deve utilizzare tutte le sue capacità di ragionamento e pianificazione, spesso coinvolgendo molti passaggi interni prima di fornire una risposta. Ecco alcuni esempi:
- Risolvi il problema 1 dell'AIME 2025: trova la somma di tutte le basi intere b > 9 per le quali 17b è un divisore di 97b.
- Scrivi codice Python per un'applicazione web che visualizzi i dati in tempo reale del mercato azionario, inclusa l'autenticazione utente. Rendilo il più efficiente possibile.
Passaggi successivi
- Prova la versione di anteprima di Gemini 2.5 Pro in Google AI Studio.
- Per saperne di più su Gemini 2.5 Pro Preview e Gemini Flash 2.0 Thinking, visita la pagina del modello.
- Prova altri esempi nel cookbook di Thinking.