I modelli della serie Gemini 2.5 utilizzano un "processo di pensiero" interno durante la generazione della risposta. Questo processo contribuisce a migliorare le loro capacità di ragionamento e li aiuta a utilizzare la pianificazione in più fasi per risolvere attività complesse. Questo rende questi modelli particolarmente adatti a programmazione, matematica avanzata, analisi dei dati e altre attività che richiedono pianificazione o riflessioni.
Questa guida mostra come utilizzare le funzionalità di pensiero di Gemini tramite l'API Gemini.
Utilizza modelli di pensiero
I modelli con funzionalità di pensiero sono disponibili in
Google AI Studio
e tramite l'API Gemini. La funzionalità di pensiero è attiva per impostazione predefinita sia nell'API sia in AI Studio perché i modelli della serie 2.5 hanno la capacità di decidere automaticamente quando e quanto pensare in base al prompt. Nella maggior parte dei casi d'uso, è utile non fermarsi a pensare. Tuttavia, se vuoi disattivare il pensiero, puoi farlo impostando il parametro thinkingBudget
su 0.
Invia una richiesta di base
Python
from google import genai
client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents=prompt
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: prompt,
});
console.log(response.text);
}
main();
Vai
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Stabilisci il budget su modelli di pensiero
Il parametro thinkingBudget
fornisce al modello indicazioni sul numero di token di valutazione che può utilizzare durante la generazione di una risposta. Un numero maggiore di token è generalmente associato a un pensiero più dettagliato, necessario per risolvere attività più complesse. thinkingBudget
deve essere un
numero intero compreso tra 0 e 24576. Impostare il budget di pensiero su 0
disabilita il pensiero.
A seconda del prompt, il modello potrebbe superare o ridurre il budget del token.
Python
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents="Explain the Occam's Razor concept and provide everyday examples of it",
config=types.GenerateContentConfig(
thinking_config=types.ThinkingConfig(thinking_budget=1024)
),
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: "Explain the Occam's Razor concept and provide everyday examples of it",
config: {
thinkingConfig: {
thinkingBudget: 1024,
},
},
});
console.log(response.text);
}
main();
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
}
]
}
],
"generationConfig": {
"thinkingConfig": {
"thinkingBudget": 1024
}
}
}'
Utilizzare strumenti con modelli di pensiero
Puoi combinare l'uso dei modelli di pensiero con qualsiasi strumento e capacità di Gemini per eseguire azioni oltre alla generazione di testo. Ciò consente loro di interagire con sistemi esterni, eseguire codice o accedere a informazioni in tempo reale, incorporando i risultati nel loro ragionamento e nella risposta finale.
Lo strumento di ricerca consente al modello di eseguire query su motori di ricerca esterni per trovare informazioni o informazioni aggiornate oltre ai dati di addestramento. È utile per domande su eventi recenti o argomenti molto specifici.
Lo strumento di esecuzione del codice consente al modello di generare ed eseguire codice Python per eseguire calcoli, manipolare dati o risolvere problemi gestiti al meglio tramite algoritmi. Il modello riceve l'output del codice e può utilizzarlo nella risposta.
Con l'output strutturato, puoi limitare Gemini a rispondere con JSON, un formato di output strutturato adatto all'elaborazione automatica. Ciò è particolarmente utile per integrare l'output del modello nelle applicazioni.
Le chiamate di funzione collegano il modello pensare a strumenti e API esterni, in modo da poter ragionare su quando chiamare la funzione giusta e su quali parametri fornire.
Best practice
Questa sezione include alcune linee guida per utilizzare i modelli di pensiero in modo efficiente. Come sempre, seguendo le nostre best practice e linee guida per ottenere i risultati migliori.
Debug e orientamento
Rivedi il ragionamento: quando non ottieni la risposta prevista dai modelli di pensiero, può essere utile analizzare attentamente il processo di ragionamento di Gemini. Puoi vedere come ha suddiviso l'attività e arrivare alla conclusione e utilizzare queste informazioni per ottenere i risultati corretti.
Fornisci indicazioni per il ragionamento: se speri di ottenere un risultato particolarmente lungo, ti consigliamo di fornire indicazioni nel prompt per limitare la quantità di riflessioni utilizzata dal modello. In questo modo puoi prenotare più dell'output del token per la tua risposta.
Complessità delle attività
- Attività semplici (il pensiero potrebbe essere disattivato): per richieste semplici, non è necessario un ragionamento complesso, ad esempio il recupero o la classificazione di fatti semplici. Ecco alcuni esempi:
- "Dove è stata fondata DeepMind?"
- "Questa email richiede una riunione o fornisce solo informazioni?"
- Attività medie (predefinite/intenzionali): molte richieste comuni traggono vantaggio da un'elaborazione dettagliata o da una comprensione più approfondita. Gemini può utilizzare in modo flessibile la funzionalità di pensiero per attività quali:
- Fai un'analogia tra la fotosintesi e la crescita.
- Confronta e contrapponi le auto elettriche e le auto ibride.
- Attività complesse (massima capacità di pensiero): per le sfide davvero complesse, l'IA deve utilizzare tutte le sue capacità di ragionamento e pianificazione, spesso coinvolgendo molti passaggi interni prima di fornire una risposta. Ecco alcuni esempi:
- Risolvi il problema 1 in AIME 2025: trova la somma di tutte le basi intere b > 9 per cui 17b è un divisore di 97b.
- Scrivi codice Python per un'applicazione web che visualizzi i dati in tempo reale del mercato azionario, inclusa l'autenticazione utente. Rendilo il più efficiente possibile.
Passaggi successivi
- Prova la versione di anteprima di Gemini 2.5 Pro in Google AI Studio.
- Per maggiori informazioni sull'anteprima di Gemini 2.5 Pro e su Gemini Flash 2.0 Thinking, consulta la pagina del modello.
- Prova altri esempi nel Libro di ricette per il pensiero.