Gemini-Denken

Die Modelle der Gemini 2.5-Reihe verwenden bei der Antwortgenerierung einen internen „Denkprozess“. Dieser Prozess trägt zu verbesserten Argumentationsfähigkeiten bei und hilft ihnen, komplexe Aufgaben mit einer mehrstufigen Planung zu lösen. Dadurch sind diese Modelle besonders gut beim Programmieren, in fortgeschrittener Mathematik, Datenanalyse und anderen Aufgaben, die Planung oder Denken erfordern, sehr gut.

In diesem Leitfaden erfahren Sie, wie Sie die Denkfunktionen von Gemini mithilfe der Gemini API nutzen.

Denkmodelle verwenden

Modelle mit Denkfähigkeiten sind in Google AI Studio und über die Gemini API verfügbar. Die Funktion „Denken“ ist sowohl in der API als auch in AI Studio standardmäßig aktiviert, da die Modelle der 2.5er-Reihe basierend auf dem Prompt automatisch entscheiden können, wann und wie viel sie nachdenken sollen. Bei den meisten Anwendungsfällen ist es hilfreich, weiter darüber nachzudenken. Wenn Sie das Denken jedoch deaktivieren möchten, können Sie den Parameter thinkingBudget auf 0 setzen.

Einfache Anfrage senden

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();
// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Budget für Denkmodelle festlegen

Der Parameter thinkingBudget gibt dem Modell eine Anleitung zur Anzahl der Denktokens, die beim Generieren einer Antwort verwendet werden können. Eine größere Anzahl von Tokens geht in der Regel mit einer detaillierteren Denkweise einher, die für die Lösung komplexerer Aufgaben erforderlich ist. thinkingBudget muss eine Ganzzahl im Bereich von 0 bis 24.576 sein. Wenn Sie das Denkbudget auf 0 setzen, wird das Denken deaktiviert.

Je nach Aufforderung kann das Modell das Tokenbudget über- oder unterlaufen.

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Tools mit Denkmodellen verwenden

Sie können Ihre Denkmodelle mit beliebigen Tools und Funktionen von Gemini kombinieren, um neben der Textgenerierung weitere Aktionen auszuführen. Auf diese Weise können sie mit externen Systemen interagieren, Code ausführen oder auf Echtzeitinformationen zugreifen, wobei die Ergebnisse in ihre Schlussfolgerungen und endgültigen Antworten einbezogen werden.

  • Mit dem Suchtool kann das Modell externe Suchmaschinen abfragen, um aktuelle Informationen oder Informationen zu finden, die über die Trainingsdaten hinausgehen. Das ist nützlich bei Fragen zu aktuellen Ereignissen oder zu sehr spezifischen Themen.

  • Mit dem Tool zur Codeausführung kann das Modell Python-Code generieren und ausführen, um Berechnungen durchzuführen, Daten zu bearbeiten oder Probleme zu lösen, die am besten algorithmisch gehandhabt werden. Das Modell empfängt die Ausgabe des Codes und kann sie in seiner Antwort verwenden.

  • Mit der strukturierten Ausgabe können Sie Gemini dazu veranlassen, mit JSON zu antworten, einem strukturierten Ausgabeformat, das für die automatisierte Verarbeitung geeignet ist. Dies ist besonders nützlich, um die Modellausgabe in Anwendungen zu integrieren.

  • Funktionsaufrufe verbinden das Denkmodell mit externen Tools und APIs. So kann ermittelt werden, wann die richtige Funktion aufgerufen und welche Parameter bereitgestellt werden sollen.

Best Practices

Dieser Abschnitt enthält einige Tipps für den effizienten Einsatz von Denkmodellen. Wie immer erzielen Sie die besten Ergebnisse, wenn Sie unsere Aufforderungen und Best Practices befolgen.

Fehlerbehebung und Steuerung

  • Begründung überprüfen: Wenn Sie von den Denkmodellen nicht die erwartete Antwort erhalten, kann es hilfreich sein, den Begründungsprozess von Gemini sorgfältig zu analysieren. Sie können sehen, wie die Aufgabe aufgeteilt und zu einer Schlussfolgerung gekommen ist, und diese Informationen verwenden, um die richtigen Ergebnisse zu korrigieren.

  • Begründungen bieten: Wenn Sie auf eine besonders lange Ausgabe erhoffen, sollten Sie in Ihrem Prompt Unterstützung geben, um den Umfang des Denkens des Modells einzuschränken. So können Sie einen größeren Teil der Tokenausgabe für Ihre Antwort reservieren.

Aufgabenkomplexität

  • Einfache Aufgaben (Denken kann deaktiviert sein): Bei einfachen Anfragen ist kein komplexes Denken erforderlich, z. B. bei der einfachen Abrufung oder Klassifizierung von Fakten. Hier einige Beispiele:
    • „Wo wurde DeepMind gegründet?“
    • „Werden in dieser E-Mail ein Treffen angefragt oder nur Informationen zur Verfügung gestellt?“
  • Mittlere Aufgaben (Standard/Nachdenken): Viele gängige Anfragen profitieren von einer Schritt-für-Schritt-Verarbeitung oder einem umfassenderen Verständnis. Gemini kann die Denkfunktion flexibel für Aufgaben wie die folgenden verwenden:
    • Stellen Sie eine Analogie zwischen der Photosynthese und dem Erwachsenwerden her.
    • Vergleichen Sie Elektro- und Hybridautos.
  • Schwierige Aufgaben (maximale Denkfähigkeit): Bei wirklich komplexen Herausforderungen muss die KI ihre gesamten Argumentations- und Planungsfunktionen einsetzen. Oft sind viele interne Schritte erforderlich, bevor eine Antwort geliefert wird. Hier einige Beispiele:
    • Aufgabe 1 in AIME 2025 lösen: Bestimme die Summe aller ganzzahligen Basen b > 9, für die 17b ein Teiler von 97b ist.
    • Python-Code für eine Webanwendung schreiben, die Echtzeitdaten des Aktienmarkts visualisiert, einschließlich Nutzerauthentifizierung Machen Sie es so effizient wie möglich.

Nächste Schritte