Gemini-Denken

Die Modelle der Gemini 2.5-Reihe verwenden bei der Antwortgenerierung einen internen „Denkprozess“. Dieser Prozess trägt zu verbesserten Argumentationsfähigkeiten bei und hilft ihnen, komplexe Aufgaben mithilfe einer mehrstufigen Planung zu lösen. Dadurch eignen sich diese Modelle besonders gut für Programmieren, fortgeschrittene Mathematik, Datenanalyse und andere Aufgaben, die Planung oder Nachdenken erfordern.

In diesem Leitfaden erfahren Sie, wie Sie die Denkfunktionen von Gemini mithilfe der Gemini API nutzen.

Denkmodelle verwenden

Modelle mit Denkfunktionen sind in Google AI Studio und über die Gemini API verfügbar. Die Funktion „Denken“ ist sowohl in der API als auch in AI Studio standardmäßig aktiviert, da die Modelle der 2.5er-Reihe basierend auf dem Prompt automatisch entscheiden können, wann und wie viel sie nachdenken sollen. Bei den meisten Anwendungsfällen ist es sinnvoll, das Nachdenken fortzusetzen. Wenn Sie das Nachdenken jedoch deaktivieren möchten, können Sie den Parameter thinkingBudget auf 0 setzen.

Einfache Anfrage senden

Python

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();

Ok

// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Budget für Denkmodelle festlegen

Der Parameter thinkingBudget gibt dem Modell eine Orientierungshilfe bei der Anzahl der Denk-Token, die es beim Generieren einer Antwort verwenden kann. Eine größere Anzahl von Tokens geht in der Regel mit einer detaillierteren Denkweise einher, die für die Lösung komplexerer Aufgaben erforderlich ist. thinkingBudget muss eine Ganzzahl zwischen 0 und 24576 sein. Wenn Sie das Denkbudget auf 0 festlegen, wird das Denken deaktiviert.

Je nach Prompt kann das Modell das Tokenbudget über- oder unterschreiten.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Tools mit Denkmodellen verwenden

Sie können die Denkmodelle mit allen Tools und Funktionen von Gemini kombinieren, um nicht nur Text zu generieren. So können sie mit externen Systemen interagieren, Code ausführen oder auf Echtzeitinformationen zugreifen und die Ergebnisse in ihre Argumentation und endgültige Antwort einbeziehen.

  • Mit dem Suchtool kann das Modell externe Suchmaschinen abfragen, um aktuelle Informationen oder Informationen zu finden, die über die Trainingsdaten hinausgehen. Das ist nützlich für Fragen zu aktuellen Ereignissen oder sehr spezifischen Themen.

  • Mit dem Codeausführungstool kann das Modell Python-Code generieren und ausführen, um Berechnungen durchzuführen, Daten zu manipulieren oder Probleme zu lösen, die sich am besten algorithmisch bearbeiten lassen. Das Modell empfängt die Ausgabe des Codes und kann sie in seiner Antwort verwenden.

  • Mit der strukturierten Ausgabe können Sie Gemini dazu veranlassen, mit JSON zu antworten, einem strukturierten Ausgabeformat, das für die automatisierte Verarbeitung geeignet ist. Dies ist besonders nützlich, um die Ausgabe des Modells in Anwendungen einzubinden.

  • Der Funktionsaufruf verbindet das Denkmodell mit externen Tools und APIs, damit es entscheiden kann, wann die richtige Funktion aufgerufen werden soll und welche Parameter angegeben werden müssen.

Best Practices

Dieser Abschnitt enthält einige Hinweise zur effizienten Verwendung von Denkmodellen. Wie immer erzielen Sie die besten Ergebnisse, wenn Sie unseren Hinweisen und Best Practices für Prompts folgen.

Fehlerbehebung und Steuerung

  • Argumentation prüfen: Wenn Sie von den denkenden Modellen nicht die erwartete Antwort erhalten, kann es hilfreich sein, den Argumentationsvorgang von Gemini sorgfältig zu analysieren. Sie können sehen, wie die Aufgabe in einzelne Schritte unterteilt und zu einer Schlussfolgerung gekommen ist. Anhand dieser Informationen können Sie die richtigen Ergebnisse erzielen.

  • Leitfaden für die Argumentation bereitstellen: Wenn Sie sich einen besonders langen Output wünschen, können Sie in Ihrem Prompt eine Anleitung geben, um den Grad der Denkleistung des Modells einzuschränken. So kannst du mehr der Tokenausgabe für deine Antwort reservieren.

Aufgabenkomplexität

  • Einfache Aufgaben (Denken kann deaktiviert sein): Bei einfachen Anfragen ist kein komplexes Denken erforderlich, z. B. bei der einfachen Abrufung oder Klassifizierung von Fakten. Hier einige Beispiele:
    • „Wo wurde DeepMind gegründet?“
    • „Werden in dieser E-Mail ein Treffen angefragt oder nur Informationen zur Verfügung gestellt?“
  • Mittelschwere Aufgaben (Standardeinstellung/einige Überlegungen): Viele häufige Anfragen profitieren von einer gewissen Schritt-für-Schritt-Verarbeitung oder einem besseren Verständnis. Gemini kann die Denkfunktion flexibel für Aufgaben wie die folgenden verwenden:
    • Stellen Sie eine Analogie zwischen der Photosynthese und dem Erwachsenwerden her.
    • Vergleichen Sie Elektro- und Hybridautos.
  • Schwierige Aufgaben (maximale Denkfähigkeit): Bei wirklich komplexen Herausforderungen muss die KI ihre gesamten Argumentations- und Planungsfunktionen einsetzen. Oft sind viele interne Schritte erforderlich, bevor eine Antwort geliefert wird. Hier einige Beispiele:
    • Lösen Sie Problem 1 in AIME 2025: Bestimmen Sie die Summe aller Ganzzahlbasen b > 9, für die 17b ein Teiler von 97b ist.
    • Python-Code für eine Webanwendung schreiben, die Echtzeitdaten des Aktienmarkts visualisiert, einschließlich Nutzerauthentifizierung Machen Sie es so effizient wie möglich.

Nächste Schritte