Pensamiento de Gemini

Los modelos de la serie Gemini 2.5 usan un “proceso de pensamiento” interno durante la generación de respuestas. Este proceso contribuye a mejorar sus capacidades de razonamiento y los ayuda a usar la planificación de varios pasos para resolver tareas complejas. Esto hace que estos modelos sean especialmente buenos en la programación, las matemáticas avanzadas, el análisis de datos y otras tareas que requieren planificación o reflexión.

En esta guía, se muestra cómo trabajar con las capacidades de pensamiento de Gemini con la API de Gemini.

Usa modelos de pensamiento

Los modelos con capacidades de pensamiento están disponibles en Google AI Studio y a través de la API de Gemini. El pensamiento está activado de forma predeterminada en la API y en AI Studio, ya que los modelos de la serie 2.5 tienen la capacidad de decidir automáticamente cuándo y cuánto pensar en función de la instrucción. En la mayoría de los casos de uso, es beneficioso dejar el pensamiento en marcha. Sin embargo, si quieres apagar el pensamiento, puedes hacerlo configurando el parámetro thinkingBudget en 0.

Cómo enviar una solicitud básica

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();
// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Establece un presupuesto en los modelos de pensamiento

El parámetro thinkingBudget le brinda al modelo orientación sobre la cantidad de tokens de pensamiento que puede usar cuando genera una respuesta. Por lo general, una mayor cantidad de tokens se asocia con un pensamiento más detallado, que es necesario para resolver tareas más complejas. thinkingBudget debe ser un número entero entre 0 y 24576. Si estableces el presupuesto de pensamiento en 0, se inhabilita el pensamiento.

Según la instrucción, el modelo puede desbordar o quedarse por debajo del presupuesto de tokens.

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Usa herramientas con modelos de pensamiento

Puedes combinar el uso de los modelos de pensamiento con cualquiera de las herramientas y capacidades de Gemini para realizar acciones más allá de la generación de texto. Esto les permite interactuar con sistemas externos, ejecutar código o acceder a información en tiempo real, e incorporar los resultados en su razonamiento y respuesta final.

  • La herramienta de búsqueda permite que el modelo consulte buscadores externos para encontrar información actualizada o información más allá de sus datos de entrenamiento. Esto es útil para preguntas sobre eventos recientes o temas muy específicos.

  • La herramienta de ejecución de código permite que el modelo genere y ejecute código Python para realizar cálculos, manipular datos o resolver problemas que se manejan mejor de forma algorítmica. El modelo recibe el resultado del código y puede usarlo en su respuesta.

  • Con el resultado estructurado, puedes restringir Gemini para que responda con JSON, un formato de resultado estructurado adecuado para el procesamiento automatizado. Esto es muy útil para integrar el resultado del modelo en las aplicaciones.

  • Las llamadas a función conectan el modelo de pensamiento a herramientas y APIs externas, de modo que pueda razonar cuándo llamar a la función correcta y qué parámetros proporcionar.

Prácticas recomendadas

En esta sección, se incluye una guía para usar los modelos de pensamiento de manera eficiente. Como siempre, si sigues nuestras prácticas recomendadas y la orientación sobre las indicaciones, obtendrás los mejores resultados.

Depuración y dirección

  • Revisar el razonamiento: Cuando no obtienes la respuesta esperada de los modelos de pensamiento, puede ser útil analizar cuidadosamente el proceso de razonamiento de Gemini. Puedes ver cómo desglosó la tarea y llegó a su conclusión, y usar esta información para corregir y obtener los resultados correctos.

  • Proporciona orientación en el razonamiento: Si esperas un resultado particularmente extenso, te recomendamos que proporciones orientación en la instrucción para limitar la cantidad de pensamiento que usa el modelo. Esto te permite reservar más del resultado del token para tu respuesta.

Complejidad de la tarea

  • Tareas fáciles (el pensamiento podría estar desactivado): Para las solicitudes directas, no se requiere un razonamiento complejo, como la recuperación o clasificación de hechos directos, no se requiere el pensamiento. Estos son algunos ejemplos:
    • "¿Dónde se fundó DeepMind?"
    • "¿Este correo electrónico solicita una reunión o solo proporciona información?"
  • Tareas intermedias (predeterminadas/con algo de pensamiento): Muchas solicitudes comunes se benefician de un grado de procesamiento paso a paso o de una comprensión más profunda. Gemini puede usar de forma flexible la capacidad de pensar para tareas como las siguientes:
    • Haz una analogía entre la fotosíntesis y el crecimiento.
    • Compara y contrasta los autos eléctricos y los híbridos.
  • Tareas difíciles (máxima capacidad de pensamiento): Para desafíos realmente complejos, la IA debe activar todas sus capacidades de razonamiento y planificación, lo que a menudo implica muchos pasos internos antes de proporcionar una respuesta. Estos son algunos ejemplos:
    • Resuelve el problema 1 de AIME 2025: Encuentra la suma de todas las bases de números enteros b > 9 para las que 17b es un divisor de 97b.
    • Escribir código de Python para una aplicación web que visualice datos del mercado de valores en tiempo real, incluida la autenticación de usuarios Haz que sea lo más eficiente posible.

Próximos pasos