Gemini 2.5 Pro Experimental et Gemini 2.0 Flash Thinking Experimental sont des modèles qui utilisent un "processus de réflexion" interne lors de la génération de réponses. Ce processus contribue à améliorer leurs capacités de raisonnement et leur permet de résoudre des tâches complexes. Ce guide vous explique comment utiliser les modèles Gemini avec des fonctionnalités de réflexion.
Utiliser des modèles de réflexion
Les modèles dotés de capacités de réflexion sont disponibles dans Google AI Studio et via l'API Gemini. Notez que le processus de réflexion est visible dans Google AI Studio, mais qu'il n'est pas fourni dans la sortie de l'API.
Envoyer une requête de base
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-pro-exp-03-25", # or gemini-2.0-flash-thinking-exp
contents=prompt
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-pro-exp-03-25", // or gemini-2.0-flash-thinking-exp
contents: prompt,
});
console.log(response.text);
}
main();
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GEMINI_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-pro-exp-03-25") // or gemini-2.0-flash-thinking-exp
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro-exp-03-25:generateContent?key=$YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Conversations de réflexion multitours
Pour tenir compte de l'historique de chat précédent, vous pouvez utiliser des conversations multitours.
Avec les SDK, vous pouvez créer une session de chat pour gérer l'état de la conversation.
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY')
chat = client.aio.chats.create(
model='gemini-2.5-pro-exp-03-25', # or gemini-2.0-flash-thinking-exp
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const chat = ai.chats.create({
model: 'gemini-2.5-pro-exp-03-25' // or gemini-2.0-flash-thinking-exp
});
const response = await chat.sendMessage({
message: 'What is your name?'
});
console.log(response.text);
response = await chat.sendMessage({
message: 'What did you just say before this?'
});
console.log(response.text);
}
main();
Étape suivante
- Essayez Gemini 2.5 Pro Experimental dans Google AI Studio.
- En savoir plus sur les invites de modèles de pensée
- Pour en savoir plus sur Gemini 2.5 Pro Experimental et Gemini Flash 2.0 Thinking, consultez la page du modèle.
- Découvrez d'autres exemples dans le livre de recettes de la pensée.