Gemini 2.5 Pro Experimental และ Gemini 2.0 Flash Thinking Experimental เป็นโมเดลที่ใช้ "กระบวนการคิด" ภายในระหว่างการสร้างคำตอบ กระบวนการนี้ช่วยเพิ่มความสามารถในการใช้เหตุผลและช่วยให้แก้ปัญหาที่ซับซ้อนได้ คู่มือนี้จะแสดงวิธีใช้โมเดล Gemini ที่มีความสามารถในการคิด
ใช้รูปแบบการคิด
โมเดลที่มีความสามารถในการคิดมีให้บริการใน Google AI Studio และผ่าน Gemini API โปรดทราบว่ากระบวนการคิดจะปรากฏใน Google AI Studio แต่ไม่ได้รวมอยู่ในเอาต์พุต API
ส่งคำขอพื้นฐาน
from google import genai
client = genai.Client(api_key="GEMINI_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-pro-exp-03-25", # or gemini-2.0-flash-thinking-exp
contents=prompt
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-pro-exp-03-25", // or gemini-2.0-flash-thinking-exp
contents: prompt,
});
console.log(response.text);
}
main();
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GEMINI_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-pro-exp-03-25") // or gemini-2.0-flash-thinking-exp
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-pro-exp-03-25:generateContent?key=$YOUR_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
การสนทนาแบบคิดหลายรอบ
หากต้องการพิจารณาประวัติการแชทก่อนหน้า ให้ใช้การสนทนาแบบหลายรอบ
SDK จะช่วยให้คุณสร้างเซสชันการแชทเพื่อจัดการสถานะการสนทนาได้
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY')
chat = client.aio.chats.create(
model='gemini-2.5-pro-exp-03-25', # or gemini-2.0-flash-thinking-exp
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GEMINI_API_KEY" });
async function main() {
const chat = ai.chats.create({
model: 'gemini-2.5-pro-exp-03-25' // or gemini-2.0-flash-thinking-exp
});
const response = await chat.sendMessage({
message: 'What is your name?'
});
console.log(response.text);
response = await chat.sendMessage({
message: 'What did you just say before this?'
});
console.log(response.text);
}
main();
ขั้นตอนถัดไปคือ
- ลองใช้ Gemini 2.5 Pro รุ่นทดลองใน Google AI Studio
- ดูข้อมูลเพิ่มเติมเกี่ยวกับพรอมต์สำหรับรูปแบบการคิด
- ดูข้อมูลเพิ่มเติมเกี่ยวกับ Gemini 2.5 Pro Experimental และ Gemini Flash 2.0 Thinking ได้ที่หน้าโมเดล
- ลองดูตัวอย่างเพิ่มเติมในตำราการคิด