Gemini 2.0 Flash Thinking

Model Gemini 2.0 Flash Thinking to model eksperymentalny, który został przeszkolony, aby generować „proces myślenia” w ramach swojej odpowiedzi. Dzięki temu model Flash Thinking może wykazać się większą zdolnością do wyciągania wniosków w swoich odpowiedziach niż model Gemini 2.0 Flash Experimental.

Korzystanie z modeli myślenia

Modele Flash Thinking są dostępne w Google AI Studio i za pomocą interfejsu Gemini API. Interfejs Gemini API nie zwraca myśli w odpowiedzi.

Wysyłanie podstawowego żądania

Python

W tym przykładzie użyto nowego pakietu SDK Google Genai i wersji v1alpha interfejsu API.

from google import genai

client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})

response = client.models.generate_content(
    model='gemini-2.0-flash-thinking-exp',
    contents='Explain how RLHF works in simple terms.',
)

print(response.text)

Rozmowy wieloetapowe z myśleniem

Podczas rozmowy wieloetapowej z danych wejściowych modelu usuwane są myśli z poprzednich etapów.

Python

Nowy pakiet SDK Google Genai umożliwia tworzenie sesji czatu wieloetapowego, która jest przydatna do zarządzania stanem rozmowy.

from google import genai

client = genai.Client(api_key='GEMINI_API_KEY', http_options={'api_version':'v1alpha'})

chat = client.aio.chats.create(
    model='gemini-2.0-flash-thinking-exp',
)
response = await chat.send_message('What is your name?')
print(response.text)
response = await chat.send_message('What did you just say before this?')
print(response.text)

Ograniczenia

Model Flash Thinking jest modelem eksperymentalnym i ma następujące ograniczenia:

  • Brak trybu JSON lub wyszukiwania w sieci
  • Sugestie są wyświetlane tylko w Google AI Studio

Co dalej?