Pensamiento de Gemini

Los modelos de las series Gemini 3 y 2.5 usan un "proceso de pensamiento" interno que mejora significativamente sus capacidades de razonamiento y planificación de varios pasos, lo que los hace muy eficaces para tareas complejas, como la programación, las matemáticas avanzadas y el análisis de datos.

En esta guía, se muestra cómo trabajar con las capacidades de pensamiento de Gemini mediante la API de Gemini.

Generar contenido con pensamiento

Iniciar una solicitud con un modelo de pensamiento es similar a cualquier otra solicitud de generación de contenido. La diferencia clave radica en especificar uno de los modelos con compatibilidad de pensamiento en el campo model, como se muestra en el siguiente ejemplo de generación de texto:

Python

from google import genai

client = genai.Client()
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-3-flash-preview",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-3-flash-preview",
    contents: prompt,
  });

  console.log(response.text);
}

main();

Go

package main

import (
  "context"
  "fmt"
  "log"
  "os"
  "google.golang.org/genai"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  prompt := "Explain the concept of Occam's Razor and provide a simple, everyday example."
  model := "gemini-3-flash-preview"

  resp, _ := client.Models.GenerateContent(ctx, model, genai.Text(prompt), nil)

  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-flash-preview:generateContent" \
 -H "x-goog-api-key: $GEMINI_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam'\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Resúmenes de pensamiento

Los resúmenes de pensamiento son versiones resumidas de los pensamientos sin procesar del modelo y ofrecen información sobre el proceso de razonamiento interno del modelo. Ten en cuenta que los niveles y presupuestos de pensamiento se aplican a los pensamientos sin procesar del modelo y no a los resúmenes de pensamiento.

Para habilitar los resúmenes de pensamiento, configura includeThoughts como true en la configuración de tu solicitud. Luego, puedes acceder al resumen iterando a través de los parts del parámetro response y verificando el booleano thought.

A continuación, se muestra un ejemplo que demuestra cómo habilitar y recuperar resúmenes de pensamiento sin transmisión, que muestra un resumen de pensamiento final único con la respuesta:

Python

from google import genai
from google.genai import types

client = genai.Client()
prompt = "What is the sum of the first 50 prime numbers?"
response = client.models.generate_content(
  model="gemini-3-flash-preview",
  contents=prompt,
  config=types.GenerateContentConfig(
    thinking_config=types.ThinkingConfig(
      include_thoughts=True
    )
  )
)

for part in response.candidates[0].content.parts:
  if not part.text:
    continue
  if part.thought:
    print("Thought summary:")
    print(part.text)
    print()
  else:
    print("Answer:")
    print(part.text)
    print()

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-3-flash-preview",
    contents: "What is the sum of the first 50 prime numbers?",
    config: {
      thinkingConfig: {
        includeThoughts: true,
      },
    },
  });

  for (const part of response.candidates[0].content.parts) {
    if (!part.text) {
      continue;
    }
    else if (part.thought) {
      console.log("Thoughts summary:");
      console.log(part.text);
    }
    else {
      console.log("Answer:");
      console.log(part.text);
    }
  }
}

main();

Go

package main

import (
  "context"
  "fmt"
  "google.golang.org/genai"
  "os"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  contents := genai.Text("What is the sum of the first 50 prime numbers?")
  model := "gemini-3-flash-preview"
  resp, _ := client.Models.GenerateContent(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      IncludeThoughts: true,
    },
  })

  for _, part := range resp.Candidates[0].Content.Parts {
    if part.Text != "" {
      if part.Thought {
        fmt.Println("Thoughts Summary:")
        fmt.Println(part.Text)
      } else {
        fmt.Println("Answer:")
        fmt.Println(part.Text)
      }
    }
  }
}

A continuación, se muestra un ejemplo en el que se usa el pensamiento con transmisión, que muestra resúmenes incrementales y continuos durante la generación:

Python

from google import genai
from google.genai import types

client = genai.Client()

prompt = """
Alice, Bob, and Carol each live in a different house on the same street: red, green, and blue.
The person who lives in the red house owns a cat.
Bob does not live in the green house.
Carol owns a dog.
The green house is to the left of the red house.
Alice does not own a cat.
Who lives in each house, and what pet do they own?
"""

thoughts = ""
answer = ""

for chunk in client.models.generate_content_stream(
    model="gemini-3-flash-preview",
    contents=prompt,
    config=types.GenerateContentConfig(
      thinking_config=types.ThinkingConfig(
        include_thoughts=True
      )
    )
):
  for part in chunk.candidates[0].content.parts:
    if not part.text:
      continue
    elif part.thought:
      if not thoughts:
        print("Thoughts summary:")
      print(part.text)
      thoughts += part.text
    else:
      if not answer:
        print("Answer:")
      print(part.text)
      answer += part.text

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

const prompt = `Alice, Bob, and Carol each live in a different house on the same
street: red, green, and blue. The person who lives in the red house owns a cat.
Bob does not live in the green house. Carol owns a dog. The green house is to
the left of the red house. Alice does not own a cat. Who lives in each house,
and what pet do they own?`;

let thoughts = "";
let answer = "";

async function main() {
  const response = await ai.models.generateContentStream({
    model: "gemini-3-flash-preview",
    contents: prompt,
    config: {
      thinkingConfig: {
        includeThoughts: true,
      },
    },
  });

  for await (const chunk of response) {
    for (const part of chunk.candidates[0].content.parts) {
      if (!part.text) {
        continue;
      } else if (part.thought) {
        if (!thoughts) {
          console.log("Thoughts summary:");
        }
        console.log(part.text);
        thoughts = thoughts + part.text;
      } else {
        if (!answer) {
          console.log("Answer:");
        }
        console.log(part.text);
        answer = answer + part.text;
      }
    }
  }
}

await main();

Go

package main

import (
  "context"
  "fmt"
  "log"
  "os"
  "google.golang.org/genai"
)

const prompt = `
Alice, Bob, and Carol each live in a different house on the same street: red, green, and blue.
The person who lives in the red house owns a cat.
Bob does not live in the green house.
Carol owns a dog.
The green house is to the left of the red house.
Alice does not own a cat.
Who lives in each house, and what pet do they own?
`

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  contents := genai.Text(prompt)
  model := "gemini-3-flash-preview"

  resp := client.Models.GenerateContentStream(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      IncludeThoughts: true,
    },
  })

  for chunk := range resp {
    for _, part := range chunk.Candidates[0].Content.Parts {
      if len(part.Text) == 0 {
        continue
      }

      if part.Thought {
        fmt.Printf("Thought: %s\n", part.Text)
      } else {
        fmt.Printf("Answer: %s\n", part.Text)
      }
    }
  }
}

Controlar el pensamiento

Los modelos de Gemini participan en el pensamiento dinámico de forma predeterminada, y ajustan automáticamente la cantidad de esfuerzo de razonamiento según la complejidad de la solicitud del usuario. Sin embargo, si tienes restricciones de latencia específicas o necesitas que el modelo participe en un razonamiento más profundo de lo habitual, puedes usar parámetros de forma opcional para controlar el comportamiento del pensamiento.

Niveles de pensamiento (Gemini 3)

El parámetro thinkingLevel, recomendado para los modelos de Gemini 3 y versiones posteriores, te permite controlar el comportamiento del razonamiento.

En la siguiente tabla, se detallan los parámetros de configuración de thinkingLevel para cada tipo de modelo:

Nivel de pensamiento Gemini 3.1 Pro Gemini 3.1 Flash-Lite Gemini 3 Flash Descripción
minimal No compatible Compatible (predeterminado) Admitido Coincide con el parámetro de configuración "sin pensamiento" para la mayoría de las consultas. El modelo puede pensar de forma muy mínima para tareas de programación complejas. Minimiza la latencia para el chat o las aplicaciones de alto rendimiento. Ten en cuenta que minimal no garantiza que el pensamiento esté desactivado.
low Admitido Admitido Admitido Minimiza la latencia y el costo. Es mejor para el seguimiento de instrucciones simples, el chat o las aplicaciones de alto rendimiento.
medium Admitido Admitido Admitido Pensamiento equilibrado para la mayoría de las tareas.
high Admitido (predeterminado, dinámico) Admitido (dinámico) Admitido (predeterminado, dinámico) Maximiza la profundidad del razonamiento. El modelo puede tardar mucho más en alcanzar un primer token de salida (sin pensamiento), pero el resultado se razonará con más cuidado.

En el siguiente ejemplo, se muestra cómo configurar el nivel de pensamiento.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-flash-preview",
    contents="Provide a list of 3 famous physicists and their key contributions",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_level="low")
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI, ThinkingLevel } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-3-flash-preview",
    contents: "Provide a list of 3 famous physicists and their key contributions",
    config: {
      thinkingConfig: {
        thinkingLevel: ThinkingLevel.LOW,
      },
    },
  });

  console.log(response.text);
}

main();

Go

package main

import (
  "context"
  "fmt"
  "google.golang.org/genai"
  "os"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  thinkingLevelVal := "low"

  contents := genai.Text("Provide a list of 3 famous physicists and their key contributions")
  model := "gemini-3-flash-preview"
  resp, _ := client.Models.GenerateContent(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      ThinkingLevel: &thinkingLevelVal,
    },
  })

fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-flash-preview:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Provide a list of 3 famous physicists and their key contributions"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingLevel": "low"
    }
  }
}'

No puedes inhabilitar el pensamiento para Gemini 3.1 Pro. Gemini 3 Flash y Flash-Lite tampoco admiten el pensamiento completo, pero el parámetro de configuración minimal significa que es probable que el modelo no piense (aunque aún puede hacerlo). Si no especificas un nivel de pensamiento, Gemini usará el nivel de pensamiento dinámico predeterminado de los modelos de Gemini 3, "high".

Los modelos de la serie Gemini 2.5 no admiten thinkingLevel; en su lugar, usa thinkingBudget.

Presupuestos de pensamiento

El parámetro thinkingBudget, que se introdujo con la serie Gemini 2.5, guía al modelo sobre la cantidad específica de tokens de pensamiento que se deben usar para el razonamiento.

A continuación, se muestran los detalles de configuración de thinkingBudget para cada tipo de modelo. Para inhabilitar el pensamiento, configura thinkingBudget como 0. Si configuras thinkingBudget como -1, se activa el pensamiento dinámico, lo que significa que el modelo ajustará el presupuesto según la complejidad de la solicitud.

Modelo Parámetro de configuración predeterminado
(No se establece el presupuesto de pensamiento)
Rango Inhabilitar el pensamiento Activar el pensamiento dinámico
2.5 Pro Pensamiento dinámico De 128 a 32768 N/A: No se puede inhabilitar el pensamiento thinkingBudget = -1 (predeterminado)
2.5 Flash Pensamiento dinámico De 0 a 24576 thinkingBudget = 0 thinkingBudget = -1 (predeterminado)
Versión preliminar de 2.5 Flash Pensamiento dinámico De 0 a 24576 thinkingBudget = 0 thinkingBudget = -1 (predeterminado)
2.5 Flash Lite El modelo no piensa De 512 a 24576 thinkingBudget = 0 thinkingBudget = -1
Versión preliminar de 2.5 Flash Lite El modelo no piensa De 512 a 24576 thinkingBudget = 0 thinkingBudget = -1
Versión preliminar de Robotics-ER 1.5 Pensamiento dinámico De 0 a 24576 thinkingBudget = 0 thinkingBudget = -1 (predeterminado)
Versión preliminar de audio nativo en vivo de 2.5 Flash (09-2025) Pensamiento dinámico De 0 a 24576 thinkingBudget = 0 thinkingBudget = -1 (predeterminado)

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Provide a list of 3 famous physicists and their key contributions",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
        # Turn off thinking:
        # thinking_config=types.ThinkingConfig(thinking_budget=0)
        # Turn on dynamic thinking:
        # thinking_config=types.ThinkingConfig(thinking_budget=-1)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash",
    contents: "Provide a list of 3 famous physicists and their key contributions",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
        // Turn off thinking:
        // thinkingBudget: 0
        // Turn on dynamic thinking:
        // thinkingBudget: -1
      },
    },
  });

  console.log(response.text);
}

main();

Go

package main

import (
  "context"
  "fmt"
  "google.golang.org/genai"
  "os"
)

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, nil)
  if err != nil {
      log.Fatal(err)
  }

  thinkingBudgetVal := int32(1024)

  contents := genai.Text("Provide a list of 3 famous physicists and their key contributions")
  model := "gemini-2.5-flash"
  resp, _ := client.Models.GenerateContent(ctx, model, contents, &genai.GenerateContentConfig{
    ThinkingConfig: &genai.ThinkingConfig{
      ThinkingBudget: &thinkingBudgetVal,
      // Turn off thinking:
      // ThinkingBudget: int32(0),
      // Turn on dynamic thinking:
      // ThinkingBudget: int32(-1),
    },
  })

fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Provide a list of 3 famous physicists and their key contributions"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Según la instrucción, el modelo podría desbordar o subdesbordar el presupuesto de tokens.

Firmas de pensamiento

La API de Gemini no tiene estado, por lo que el modelo trata cada solicitud de API de forma independiente y no tiene acceso al contexto de pensamiento de los turnos anteriores en las interacciones de varios turnos.

Para permitir el mantenimiento del contexto de pensamiento en las interacciones de varios turnos, Gemini muestra firmas de pensamiento, que son representaciones encriptadas del proceso de pensamiento interno del modelo.

  • Los modelos de Gemini 2.5 muestran firmas de pensamiento cuando el pensamiento está habilitado y la solicitud incluye llamadas a funciones, específicamente declaraciones de funciones.
  • Los modelos de Gemini 3 pueden mostrar firmas de pensamiento para todos los tipos de partes. Te recomendamos que siempre pases todas las firmas como se recibieron, pero es obligatorio para las firmas de llamadas a funciones. Lee la página Firmas de pensamiento para obtener más información.

Otras limitaciones de uso que se deben tener en cuenta con las llamadas a funciones incluyen las siguientes:

  • Las firmas se muestran desde el modelo dentro de otras partes de la respuesta, por ejemplo, llamadas a funciones o partes de texto. Devuelve toda la respuesta con todas las partes al modelo en los turnos posteriores.
  • No concatenes partes con firmas.
  • No combines una parte con una firma con otra parte sin una firma.

Precios

aumentarán los tokens de entrada que se te cobran cuando se envían como parte de la solicitud.

Cuando el pensamiento está activado, el precio de la respuesta es la suma de los tokens de salida y los tokens de pensamiento. Puedes obtener la cantidad total de tokens de pensamiento generados desde el campo thoughtsTokenCount.

Python

# ...
print("Thoughts tokens:",response.usage_metadata.thoughts_token_count)
print("Output tokens:",response.usage_metadata.candidates_token_count)

JavaScript

// ...
console.log(`Thoughts tokens: ${response.usageMetadata.thoughtsTokenCount}`);
console.log(`Output tokens: ${response.usageMetadata.candidatesTokenCount}`);

Go

// ...
usageMetadata, err := json.MarshalIndent(response.UsageMetadata, "", "  ")
if err != nil {
  log.Fatal(err)
}
fmt.Println("Thoughts tokens:", string(usageMetadata.thoughts_token_count))
fmt.Println("Output tokens:", string(usageMetadata.candidates_token_count))

Los modelos de pensamiento generan pensamientos completos para mejorar la calidad de la respuesta final y, luego, muestran resúmenes para proporcionar información sobre el proceso de pensamiento. Por lo tanto, el precio se basa en los tokens de pensamiento completos que el modelo necesita generar para crear un resumen, a pesar de que solo se muestra el resumen de la API.

Puedes obtener más información sobre los tokens en la guía Recuento de tokens.

Prácticas recomendadas

En esta sección, se incluye una guía para usar los modelos de pensamiento de manera eficiente. Como siempre, seguir nuestra guía de instrucciones y las prácticas recomendadas te dará los mejores resultados.

Depuración y dirección

  • Revisa el razonamiento: Cuando no obtienes la respuesta esperada de los modelos de pensamiento, puede ser útil analizar cuidadosamente los resúmenes de pensamiento de Gemini. Puedes ver cómo desglosó la tarea y llegó a su conclusión, y usar esa información para corregir los resultados correctos.

  • Proporciona orientación en el razonamiento: Si esperas un resultado particularmente largo, es posible que desees proporcionar orientación en tu instrucción para restringir la cantidad de pensamiento que usa el modelo. Esto te permite reservar más de la salida de tokens para tu respuesta.

Complejidad de la tarea

  • Tareas fáciles (el pensamiento podría estar desactivado): Para solicitudes directas en las que no se requiere un razonamiento complejo, como la recuperación o clasificación de hechos, no se requiere pensamiento. Los siguientes son algunos ejemplos:
    • "¿Dónde se fundó DeepMind?"
    • "¿Este correo electrónico solicita una reunión o solo proporciona información?"
  • Tareas medianas (predeterminadas o con algún pensamiento): Muchas solicitudes comunes se benefician de un grado de procesamiento paso a paso o de una comprensión más profunda. Gemini puede usar de forma flexible la capacidad de pensamiento para tareas como las siguientes:
    • Analogizar la fotosíntesis y el crecimiento.
    • Comparar y contrastar autos eléctricos y autos híbridos.
  • Tareas difíciles (capacidad máxima de pensamiento): Para desafíos realmente complejos, como resolver problemas matemáticos complejos o tareas de programación, te recomendamos que establezcas un presupuesto de pensamiento alto. Estos tipos de tareas requieren que el modelo active sus capacidades completas de razonamiento y planificación, que a menudo implican muchos pasos internos antes de proporcionar una respuesta. Los siguientes son algunos ejemplos:
    • Resuelve el problema 1 en AIME 2025: Encuentra la suma de todas las bases enteras b > 9 para las que 17b es un divisor de 97b.
    • Escribe código de Python para una aplicación web que visualice datos del mercado de valores en tiempo real, incluida la autenticación de usuarios. Haz que sea lo más eficiente posible.

Modelos, herramientas y capacidades compatibles

Las funciones de pensamiento son compatibles con todos los modelos de las series 3 y 2.5. Puedes encontrar todas las capacidades del modelo en la página de descripción general del modelo.

Los modelos de pensamiento funcionan con todas las herramientas y capacidades de Gemini. Esto permite que los modelos interactúen con sistemas externos, ejecuten código o accedan a información en tiempo real, y que incorporen los resultados en su razonamiento y respuesta final.

Puedes probar ejemplos de uso de herramientas con modelos de pensamiento en el libro de recetas de pensamiento.

Próximos pasos