Pensiero di Gemini

I modelli della serie Gemini 2.5 utilizzano un "processo di pensiero" interno durante la generazione della risposta. Questo processo contribuisce a migliorare le loro capacità di ragionamento e li aiuta a utilizzare la pianificazione in più passaggi per risolvere attività complesse. Questo li rende particolarmente efficaci per la programmazione, la matematica avanzata, l'analisi dei dati e altre attività che richiedono pianificazione o pensiero.

Questa guida mostra come utilizzare le funzionalità di pensiero di Gemini tramite l'API Gemini.

Utilizza modelli di pensiero

I modelli con funzionalità di pensiero sono disponibili in Google AI Studio e tramite l'API Gemini. Il pensiero è attivo per impostazione predefinita sia nell'API sia in AI Studio perché i modelli della serie 2.5 hanno la capacità di decidere automaticamente quando e quanto pensare in base al prompt. Per la maggior parte dei casi d'uso, è consigliabile lasciare attiva questa impostazione. Tuttavia, se vuoi disattivare il pensiero, puoi farlo impostando il parametro thinkingBudget su 0.

Inviare una richiesta di base

Python

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();

Vai

// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Impostare il budget nei modelli di pensiero

Il parametro thinkingBudget fornisce al modello indicazioni sul numero di token di pensiero che può utilizzare per generare una risposta. Un numero maggiore di token è in genere associato a un pensiero più dettagliato, che è necessario per risolvere attività più complesse. thinkingBudget deve essere un numero intero compreso tra 0 e 24576. Se imposti il budget di pensiero su 0, la funzionalità viene disattivata.

A seconda del prompt, il modello potrebbe superare o sottovalutare il budget di token.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Utilizzare strumenti con modelli di pensiero

Puoi combinare l'utilizzo dei modelli di pensiero con qualsiasi strumento e funzionalità di Gemini per eseguire azioni diverse dalla generazione di testo. In questo modo, possono interagire con sistemi esterni, eseguire codice o accedere a informazioni in tempo reale, incorporando i risultati nel loro ragionamento e nella risposta finale.

  • Lo strumento di ricerca consente al modello di eseguire query su motori di ricerca esterni per trovare informazioni aggiornate o informazioni diverse da quelle dei dati di addestramento. Questa opzione è utile per domande su eventi recenti o argomenti molto specifici.

  • Lo strumento di esecuzione del codice consente al modello di generare ed eseguire codice Python per eseguire calcoli, manipolare i dati o risolvere problemi che sono gestiti meglio in modo algoritmico. Il modello riceve l'output del codice e può utilizzarlo nella risposta.

  • Con l'output strutturato, puoi limitare Gemini a rispondere con JSON, un formato di output strutturato adatto all'elaborazione automatica. Questo è particolarmente utile per integrare l'output del modello nelle applicazioni.

  • La chiamata di funzione collega il modello di pensiero a strumenti e API esterni, in modo che possa ragionare su quando chiamare la funzione corretta e su quali parametri fornire.

Best practice

Questa sezione include alcune indicazioni per utilizzare in modo efficiente i modelli di pensiero. Come sempre, seguendo le nostre linee guida e best practice per i prompt otterrai i risultati migliori.

Debug e gestione

  • Esamina il ragionamento: quando non ricevi la risposta prevista dai modelli di pensiero, può essere utile analizzare attentamente il processo di ragionamento di Gemini. Puoi vedere in che modo ha suddiviso l'attività ed è arrivato alla conclusione e utilizzare queste informazioni per correggere il modello in modo da ottenere i risultati corretti.

  • Fornisci indicazioni per il ragionamento: se prevedi un output particolarmente lungo, ti consigliamo di fornire indicazioni nel prompt per limitare la quantità di pensiero utilizzata dal modello. In questo modo puoi riservare più output del token per la tua risposta.

Complessità delle attività

  • Attività semplici (il pensiero potrebbe essere disattivato): per richieste semplici, non è necessario un ragionamento complesso, ad esempio il recupero o la classificazione di fatti semplici. Ecco alcuni esempi:
    • "Dove è stata fondata DeepMind?"
    • "Questa email richiede una riunione o fornisce solo informazioni?"
  • Attività di media complessità (valore predefinito/un po' di pensiero): molte richieste comuni beneficiano di un certo grado di elaborazione passo passo o di una comprensione più approfondita. Gemini può utilizzare in modo flessibile la funzionalità di pensiero per attività quali:
    • Fai un'analogia tra la fotosintesi e la crescita.
    • Confronta e contrapponi le auto elettriche e le auto ibride.
  • Attività complesse (massima capacità di pensiero): per le sfide davvero complesse, l'IA deve utilizzare tutte le sue capacità di ragionamento e pianificazione, spesso coinvolgendo molti passaggi interni prima di fornire una risposta. Ecco alcuni esempi:
    • Risolvi il problema 1 dell'AIME 2025: trova la somma di tutte le basi intere b > 9 per le quali 17b è un divisore di 97b.
    • Scrivi codice Python per un'applicazione web che visualizzi i dati in tempo reale del mercato azionario, inclusa l'autenticazione utente. Rendilo il più efficiente possibile.

Passaggi successivi