Bei den Modellen Gemini 2.5 Pro Experimental und Gemini 2.0 Flash Thinking Experimental wird bei der Generierung von Antworten ein interner „Denkprozess“ verwendet. Dieser Prozess trägt zu verbesserten Argumentationsfähigkeiten bei und ermöglicht es ihnen, komplexe Aufgaben zu lösen. In diesem Leitfaden erfahren Sie, wie Sie Gemini-Modelle mit Denkfunktionen verwenden.
Denkmodelle verwenden
Modelle mit Denkfunktionen sind in Google AI Studio und über die Gemini API verfügbar. Der Denkprozess ist in Google AI Studio sichtbar, wird aber nicht als Teil der API-Ausgabe bereitgestellt.
Einfache Anfrage senden
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-pro-exp-03-25", # or gemini-2.0-flash-thinking-exp
contents=prompt
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-pro-exp-03-25", // or gemini-2.0-flash-thinking-exp
contents: prompt,
});
console.log(response.text);
}
main();
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GEMINI_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-pro-exp-03-25") // or gemini-2.0-flash-thinking-exp
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro-exp-03-25:generateContent?key=$YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Unterhaltungen mit mehreren Antworten
Wenn Sie den bisherigen Chatverlauf berücksichtigen möchten, können Sie Multi-Turn-Unterhaltungen verwenden.
Mit den SDKs können Sie eine Chatsitzung erstellen, um den Status der Unterhaltung zu verwalten.
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY')
chat = client.aio.chats.create(
model='gemini-2.5-pro-exp-03-25', # or gemini-2.0-flash-thinking-exp
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const chat = ai.chats.create({
model: 'gemini-2.5-pro-exp-03-25' // or gemini-2.0-flash-thinking-exp
});
const response = await chat.sendMessage({
message: 'What is your name?'
});
console.log(response.text);
response = await chat.sendMessage({
message: 'What did you just say before this?'
});
console.log(response.text);
}
main();
Nächste Schritte
- Testen Sie Gemini 2.5 Pro Experimental in Google AI Studio.
- Weitere Informationen zu Prompts für Denkmodelle
- Weitere Informationen zu Gemini 2.5 Pro Experimental und Gemini Flash 2.0 Thinking finden Sie auf der Modellseite.
- Weitere Beispiele finden Sie im Cookbook zum Denken.