Pensiero di Gemini

I modelli della serie Gemini 2.5 utilizzano un "processo di pensiero" interno durante la generazione della risposta. Questo processo contribuisce a migliorare le loro capacità di ragionamento e li aiuta a utilizzare la pianificazione in più fasi per risolvere attività complesse. Questo rende questi modelli particolarmente adatti a programmazione, matematica avanzata, analisi dei dati e altre attività che richiedono pianificazione o riflessioni.

Questa guida mostra come utilizzare le funzionalità di pensiero di Gemini tramite l'API Gemini.

Utilizza modelli di pensiero

I modelli con funzionalità di pensiero sono disponibili in Google AI Studio e tramite l'API Gemini. La funzionalità di pensiero è attiva per impostazione predefinita sia nell'API sia in AI Studio perché i modelli della serie 2.5 hanno la capacità di decidere automaticamente quando e quanto pensare in base al prompt. Nella maggior parte dei casi d'uso, è utile non fermarsi a pensare. Tuttavia, se vuoi disattivare il pensiero, puoi farlo impostando il parametro thinkingBudget su 0.

Invia una richiesta di base

Python

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();

Vai

// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Stabilisci il budget su modelli di pensiero

Il parametro thinkingBudget fornisce al modello indicazioni sul numero di token di valutazione che può utilizzare durante la generazione di una risposta. Un numero maggiore di token è generalmente associato a un pensiero più dettagliato, necessario per risolvere attività più complesse. thinkingBudget deve essere un numero intero compreso tra 0 e 24576. Impostare il budget di pensiero su 0 disabilita il pensiero.

A seconda del prompt, il modello potrebbe superare o ridurre il budget del token.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Utilizzare strumenti con modelli di pensiero

Puoi combinare l'uso dei modelli di pensiero con qualsiasi strumento e capacità di Gemini per eseguire azioni oltre alla generazione di testo. Ciò consente loro di interagire con sistemi esterni, eseguire codice o accedere a informazioni in tempo reale, incorporando i risultati nel loro ragionamento e nella risposta finale.

  • Lo strumento di ricerca consente al modello di eseguire query su motori di ricerca esterni per trovare informazioni o informazioni aggiornate oltre ai dati di addestramento. È utile per domande su eventi recenti o argomenti molto specifici.

  • Lo strumento di esecuzione del codice consente al modello di generare ed eseguire codice Python per eseguire calcoli, manipolare dati o risolvere problemi gestiti al meglio tramite algoritmi. Il modello riceve l'output del codice e può utilizzarlo nella risposta.

  • Con l'output strutturato, puoi limitare Gemini a rispondere con JSON, un formato di output strutturato adatto all'elaborazione automatica. Ciò è particolarmente utile per integrare l'output del modello nelle applicazioni.

  • Le chiamate di funzione collegano il modello pensare a strumenti e API esterni, in modo da poter ragionare su quando chiamare la funzione giusta e su quali parametri fornire.

Best practice

Questa sezione include alcune linee guida per utilizzare i modelli di pensiero in modo efficiente. Come sempre, seguendo le nostre best practice e linee guida per ottenere i risultati migliori.

Debug e orientamento

  • Rivedi il ragionamento: quando non ottieni la risposta prevista dai modelli di pensiero, può essere utile analizzare attentamente il processo di ragionamento di Gemini. Puoi vedere come ha suddiviso l'attività e arrivare alla conclusione e utilizzare queste informazioni per ottenere i risultati corretti.

  • Fornisci indicazioni per il ragionamento: se speri di ottenere un risultato particolarmente lungo, ti consigliamo di fornire indicazioni nel prompt per limitare la quantità di riflessioni utilizzata dal modello. In questo modo puoi prenotare più dell'output del token per la tua risposta.

Complessità delle attività

  • Attività semplici (il pensiero potrebbe essere disattivato): per richieste semplici, non è necessario un ragionamento complesso, ad esempio il recupero o la classificazione di fatti semplici. Ecco alcuni esempi:
    • "Dove è stata fondata DeepMind?"
    • "Questa email richiede una riunione o fornisce solo informazioni?"
  • Attività medie (predefinite/intenzionali): molte richieste comuni traggono vantaggio da un'elaborazione dettagliata o da una comprensione più approfondita. Gemini può utilizzare in modo flessibile la funzionalità di pensiero per attività quali:
    • Fai un'analogia tra la fotosintesi e la crescita.
    • Confronta e contrapponi le auto elettriche e le auto ibride.
  • Attività complesse (massima capacità di pensiero): per le sfide davvero complesse, l'IA deve utilizzare tutte le sue capacità di ragionamento e pianificazione, spesso coinvolgendo molti passaggi interni prima di fornire una risposta. Ecco alcuni esempi:
    • Risolvi il problema 1 in AIME 2025: trova la somma di tutte le basi intere b > 9 per cui 17b è un divisore di 97b.
    • Scrivi codice Python per un'applicazione web che visualizzi i dati in tempo reale del mercato azionario, inclusa l'autenticazione utente. Rendilo il più efficiente possibile.

Passaggi successivi