O Gemini 2.5 Pro Experimental e o Gemini 2.0 Flash Thinking Experimental são modelos que usam um "processo de pensamento" interno durante a geração de respostas. Esse processo contribui para melhorar as habilidades de raciocínio e permite que eles resolvam tarefas complexas. Este guia mostra como usar modelos do Gemini com recursos de pensamento.
Usar modelos de pensamento
Os modelos com recursos de pensamento estão disponíveis no Google AI Studio e na API Gemini. O processo de pensamento é visível no Google AI Studio, mas não é fornecido como parte da saída da API.
Enviar uma solicitação básica
Python
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-pro-exp-03-25", # or gemini-2.0-flash-thinking-exp
contents=prompt
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-pro-exp-03-25", // or gemini-2.0-flash-thinking-exp
contents: prompt,
});
console.log(response.text);
}
main();
Go
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GEMINI_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-pro-exp-03-25") // or gemini-2.0-flash-thinking-exp
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro-exp-03-25:generateContent?key=$YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Conversas de pensamento com vários turnos
Para considerar o histórico de chat anterior, use conversas de várias interações.
Com os SDKs, é possível criar uma sessão de chat para gerenciar o estado da conversa.
Python
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY')
chat = client.aio.chats.create(
model='gemini-2.5-pro-exp-03-25', # or gemini-2.0-flash-thinking-exp
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const chat = ai.chats.create({
model: 'gemini-2.5-pro-exp-03-25' // or gemini-2.0-flash-thinking-exp
});
const response = await chat.sendMessage({
message: 'What is your name?'
});
console.log(response.text);
response = await chat.sendMessage({
message: 'What did you just say before this?'
});
console.log(response.text);
}
main();
A seguir
- Teste o Gemini 2.5 Pro Experimental no Google AI Studio.
- Saiba mais sobre como solicitar modelos de pensamento.
- Para mais informações sobre o Gemini 2.5 Pro Experimental e o Gemini Flash 2.0 Thinking, acesse a página do modelo.
- Confira mais exemplos no manual de instruções do Thinking.