המודל Gemini 2.0 Flash Thinking הוא מודל ניסיוני שהודרך ליצור את 'תהליך החשיבה' שבו המודל עובר כחלק מהתגובה שלו. כתוצאה מכך, מודל ה-Flash Thinking מסוגל להציג יכולות נימוק חזקות יותר בתשובות שלו בהשוואה למודל Gemini 2.0 Flash Experimental.
שימוש במודלים של חשיבה
מודלים של חשיבה מהירה זמינים ב-Google AI Studio דרך Gemini API.
ה-API של Gemini לא מחזיר מחשבות בתגובה.
כדי להשתמש במודל החשיבה, צריך להגדיר את הלקוח כך שישתמש בגרסה v1alpha
של ה-API:
pip install -U google-genai
from google import genai
from google.genai import types
client = genai.Client(
api_key=GOOGLE_API_KEY,
http_options={'api_version':'v1alpha'},
)
שליחת בקשה בסיסית
בדוגמה הזו נעשה שימוש ב-Google Genai SDK החדש.
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})
response = client.models.generate_content(
model='gemini-2.0-flash-thinking-exp',
contents='Explain how RLHF works in simple terms.',
)
print(response.text)
שיחות מחשבה עם מספר תורנויות
במהלך שיחות עם כמה תשובות, מעבירים את כל היסטוריית השיחה כקלט, כך שלמודל אין גישה למחשבות הקודמות שלו בשיחה עם כמה תשובות.
Google Genai SDK החדש מאפשר ליצור סשן צ'אט עם כמה תורנים, שעוזר לנהל את מצב השיחה.
from google import genai
client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})
chat = client.aio.chats.create(
model='gemini-2.0-flash-thinking-exp',
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)
מגבלות
מודל החשיבה המהירה הוא מודל ניסיוני, והוא כולל את המגבלות הבאות:
- קלט של טקסט ותמונות בלבד
- פלט טקסט בלבד
- ללא מצב JSON או Search Grounding
- התובנות מוצגות רק ב-Google AI Studio
מה השלב הבא?
- אפשר לנסות את המודל Flash Thinking ב-Google AI Studio.
- כדאי לנסות את Colab של Flash Thinking.