Modele Gemini 2.5 Pro Experimental i Gemini 2.0 Flash Thinking Experimental korzystają podczas generowania odpowiedzi z wewnętrznego „procesu myślenia”. Ten proces przyczynia się do poprawy ich zdolności do rozumowania i pozwala im rozwiązywać złożone zadania. Z tego przewodnika dowiesz się, jak korzystać z modeli Gemini z funkcjami myślenia.
Korzystanie z modeli myślenia
Modele z funkcjami myślenia są dostępne w Google AI Studio i przez interfejs Gemini API. Pamiętaj, że proces myślenia jest widoczny w Google AI Studio, ale nie jest udostępniany w ramach danych wyjściowych interfejsu API.
Wysyłanie podstawowego żądania
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-pro-exp-03-25", # or gemini-2.0-flash-thinking-exp
contents=prompt
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-pro-exp-03-25", // or gemini-2.0-flash-thinking-exp
contents: prompt,
});
console.log(response.text);
}
main();
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GEMINI_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-pro-exp-03-25") // or gemini-2.0-flash-thinking-exp
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro-exp-03-25:generateContent?key=$YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Rozmowy wieloetapowe z myśleniem
Aby uwzględnić poprzednią historię czatu, możesz użyć rozmów wieloetapowych.
Dzięki pakietom SDK możesz utworzyć sesję czatu, aby zarządzać stanem rozmowy.
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY')
chat = client.aio.chats.create(
model='gemini-2.5-pro-exp-03-25', # or gemini-2.0-flash-thinking-exp
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const chat = ai.chats.create({
model: 'gemini-2.5-pro-exp-03-25' // or gemini-2.0-flash-thinking-exp
});
const response = await chat.sendMessage({
message: 'What is your name?'
});
console.log(response.text);
response = await chat.sendMessage({
message: 'What did you just say before this?'
});
console.log(response.text);
}
main();
Co dalej?
- Wypróbuj Gemini 2.5 Pro Experimental w Google AI Studio.
- Dowiedz się więcej o modelach myślenia.
- Więcej informacji o modelach Gemini 2.5 Pro Experimental i Gemini 2.0 Thinking znajdziesz na stronie modelu.
- Więcej przykładów znajdziesz w Książce kucharskiej „Myślenie”.