Modele z serii Gemini 2.5 korzystają podczas generowania odpowiedzi z wewnętrznego „procesu myślowego”. Dzięki temu procesowi ich zdolności rozumowania są lepsze, a to pomaga im w wykonaniu złożonych zadań przy użyciu planowania wieloetapowego. Dzięki temu modele te są szczególnie skuteczne w kodowaniu, zaawansowanej matematyce, analizie danych i innych zadaniach, które wymagają planowania lub myślenia.
Z tego przewodnika dowiesz się, jak korzystać z możliwości myślenia Gemini za pomocą interfejsu Gemini API.
Korzystanie z modeli myślenia
Modele z umiejętnościami myślenia są dostępne w Google AI Studio i w interfejsie Gemini API. Myślenie jest domyślnie włączone zarówno w interfejsie API, jak i w AI Studio, ponieważ modele z serii 2.5 mogą automatycznie decydować, kiedy i jak długo mają myśleć na podstawie promptu. W większości przypadków dobrze jest
postawić na to. Jeśli jednak chcesz wyłączyć myślenie, możesz to zrobić, ustawiając parametr thinkingBudget
na 0.
Wyślij podstawową prośbę
from google import genai
client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents=prompt
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: prompt,
});
console.log(response.text);
}
main();
// import packages here
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
if err != nil {
log.Fatal(err)
}
defer client.Close()
model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
if err != nil {
log.Fatal(err)
}
fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
}
]
}
]
}'
```
Ustal budżet na modele myślowe
Parametr thinkingBudget
wskazuje modelowi liczbę tokenów myślących, których może użyć do generowania odpowiedzi. Większa liczba tokenów wiąże się zwykle z bardziej szczegółowym myśleniem, które jest potrzebne do rozwiązywania bardziej złożonych zadań. thinkingBudget
musi być liczbą całkowitą z zakresu od 0 do 24 576. Ustawienie budżetu na potrzeby myślenia
wyłącza myślenie.
W zależności od promptu model może przekroczyć lub niedostatecznie budżet tokenu.
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash-preview-04-17",
contents="Explain the Occam's Razor concept and provide everyday examples of it",
config=types.GenerateContentConfig(
thinking_config=types.ThinkingConfig(thinking_budget=1024)
),
)
print(response.text)
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });
async function main() {
const response = await ai.models.generateContent({
model: "gemini-2.5-flash-preview-04-17",
contents: "Explain the Occam's Razor concept and provide everyday examples of it",
config: {
thinkingConfig: {
thinkingBudget: 1024,
},
},
});
console.log(response.text);
}
main();
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
}
]
}
],
"generationConfig": {
"thinkingConfig": {
"thinkingBudget": 1024
}
}
}'
Korzystanie z narzędzi z modelami myślenia
Możesz połączyć swój sposób myślenia z dowolnymi narzędziami i zdolnościami Gemini do wykonywania działań innych niż generowanie tekstu. Dzięki temu mogą wchodzić w interakcje z zewnętrznymi systemami, wykonywać kod lub uzyskiwać dostęp do informacji w czasie rzeczywistym, co przekłada się na uwzględnianie wyników w rozumowaniu i końcowej odpowiedzi.
Narzędzie wyszukiwania umożliwia modelowi wysyłanie zapytań do zewnętrznych wyszukiwarek w celu znalezienia aktualnych informacji poza danymi treningowymi. Przydaje się to w przypadku pytań dotyczących ostatnich wydarzeń lub bardzo konkretnych tematów.
Narzędzie do wykonywania kodu umożliwia modelowi generowanie i uruchamianie kodu Pythona na potrzeby wykonywania obliczeń, manipulowania danymi lub rozwiązywania problemów, które najlepiej obsługiwać algorytmicznie. Model otrzymuje dane wyjściowe kodu i może ich użyć w swojej odpowiedzi.
Dzięki uporządkowanym wynikom możesz ograniczyć Gemini do odpowiadania w formacie JSON, który jest uporządkowanym formatem wyjściowym odpowiednim do przetwarzania automatycznego. Jest to szczególnie przydatne przy integrowaniu danych wyjściowych modelu z aplikacjami.
Wywoływanie funkcji łączy model myślowy z zewnętrznymi narzędziami i interfejsami API, dzięki czemu może myśleć, kiedy należy wywołać właściwą funkcję i jakie parametry podać.
Sprawdzone metody
W tej sekcji znajdziesz wskazówki dotyczące efektywnego wykorzystywania modeli myślenia. Jak zawsze, postępuj zgodnie z naszymi wskazówkami dotyczącymi promptów i sprawdzonymi metodami, aby uzyskać jak najlepsze wyniki.
Debugowanie i sterowanie
Przeanalizuj rozumowanie: jeśli nie otrzymasz oczekiwanej odpowiedzi od modeli myślących, pomocne może być dokładne analizowanie procesu rozumowania w Gemini. Możesz zobaczyć, jak zadanie zniszczyło zadanie i doszło do wniosków, oraz wykorzystać te informacje, aby poprawić wyniki.
Pomoc w rozumowaniu: jeśli oczekujesz szczególnie długich wyników, w prompcie umieść wskazówki ograniczające intensywność myślenia, którego używa model. Dzięki temu na potrzeby odpowiedzi zarezerwujesz więcej danych wyjściowych tokena.
Złożoność zadania
- Łatwe zadania (myślenie może być wyłączone): w przypadku prostych zapytań nie jest wymagane złożone rozumowanie, np. proste wyszukiwanie faktów czy klasyfikacja. Przykłady:
- „Gdzie założono DeepMind?”
- „Czy ten e-mail jest zaproszeniem na spotkanie, czy tylko zawiera informacje?”
- Średnie zadania (domyślne lub pewne myślenie): wiele typowych żądań wymaga przetwarzania krok po kroku lub głębszego zrozumienia. Gemini może elastycznie
wykorzystywać zdolność do myślenia do zadań takich jak:
- Analogize fotosyntezy i dojrzewania.
- Porównaj samochody elektryczne i hybrydowe.
- Trudne zadania (maksymalna zdolność do myślenia): w przypadku naprawdę złożonych wyzwań AI musi w pełni wykorzystać swoje możliwości rozumowania i planowania, często wykonując wiele wewnętrznych kroków, zanim poda odpowiedź. Przykłady:
- Rozwiąż zadanie 1 w AIME 2025: znajdź sumę wszystkich zasad liczb całkowitych b > 9, dla których 17b to dzielnik liczby 97b.
- Napisz kod Pythona dla aplikacji internetowej, która wizualizuje dane giełdowe w czasie rzeczywistym, w tym uwierzytelnianie użytkowników. Spraw, aby był jak najbardziej efektywny.
Co dalej?
- Wypróbuj podgląd Gemini 2.5 Pro w Google AI Studio.
- Więcej informacji o Gemini 2.5 Pro Preview i Gemini Flash 2.0 Thinking znajdziesz na stronie modelu.
- Więcej przykładów znajdziesz w książce kucharskiej Thinking.