Gemini 2.0 Flash Thinking

המודל Gemini 2.0 Flash Thinking הוא מודל ניסיוני שהודרך ליצור את 'תהליך החשיבה' שבו המודל עובר כחלק מהתגובה שלו. כתוצאה מכך, מודל ה-Flash Thinking מסוגל להציג יכולות נימוק חזקות יותר בתשובות שלו בהשוואה למודל Gemini 2.0 Flash Experimental.

שימוש במודלים של חשיבה

מודלים של חשיבה מהירה זמינים ב-Google AI Studio דרך Gemini API.

ה-API של Gemini לא מחזיר מחשבות בתגובה.

כדי להשתמש במודל החשיבה, צריך להגדיר את הלקוח כך שישתמש בגרסה v1alpha של ה-API:

pip install -U google-genai
from google import genai
from google.genai import types

client = genai.Client(
    api_key=GOOGLE_API_KEY,

    http_options={'api_version':'v1alpha'},
)

שליחת בקשה בסיסית

Python

בדוגמה הזו נעשה שימוש ב-Google Genai SDK החדש.

from google import genai

client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})

response = client.models.generate_content(
    model='gemini-2.0-flash-thinking-exp',
    contents='Explain how RLHF works in simple terms.',
)

print(response.text)

שיחות מחשבה עם מספר תורנויות

במהלך שיחות עם כמה תשובות, מעבירים את כל היסטוריית השיחה כקלט, כך שלמודל אין גישה למחשבות הקודמות שלו בשיחה עם כמה תשובות.

Python

Google Genai SDK החדש מאפשר ליצור סשן צ'אט עם כמה תורנים, שעוזר לנהל את מצב השיחה.

from google import genai

client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})

chat = client.aio.chats.create(
    model='gemini-2.0-flash-thinking-exp',
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)

מגבלות

מודל החשיבה המהירה הוא מודל ניסיוני, והוא כולל את המגבלות הבאות:

  • קלט של טקסט ותמונות בלבד
  • פלט טקסט בלבד
  • ללא מצב JSON או Search Grounding
  • התובנות מוצגות רק ב-Google AI Studio

מה השלב הבא?