Gemini

Modele z serii Gemini 2.5 korzystają podczas generowania odpowiedzi z wewnętrznego „procesu myślowego”. Dzięki temu procesowi ich zdolności rozumowania są lepsze, a to pomaga im w wykonaniu złożonych zadań przy użyciu planowania wieloetapowego. Dzięki temu modele te są szczególnie skuteczne w kodowaniu, zaawansowanej matematyce, analizie danych i innych zadaniach, które wymagają planowania lub myślenia.

Z tego przewodnika dowiesz się, jak korzystać z możliwości myślenia Gemini za pomocą interfejsu Gemini API.

Korzystanie z modeli myślenia

Modele z umiejętnościami myślenia są dostępne w Google AI Studio i w interfejsie Gemini API. Myślenie jest domyślnie włączone zarówno w interfejsie API, jak i w AI Studio, ponieważ modele z serii 2.5 mogą automatycznie decydować, kiedy i jak długo mają myśleć na podstawie promptu. W większości przypadków dobrze jest postawić na to. Jeśli jednak chcesz wyłączyć myślenie, możesz to zrobić, ustawiając parametr thinkingBudget na 0.

Wyślij podstawową prośbę

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();
// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

Ustal budżet na modele myślowe

Parametr thinkingBudget wskazuje modelowi liczbę tokenów myślących, których może użyć do generowania odpowiedzi. Większa liczba tokenów wiąże się zwykle z bardziej szczegółowym myśleniem, które jest potrzebne do rozwiązywania bardziej złożonych zadań. thinkingBudget musi być liczbą całkowitą z zakresu od 0 do 24 576. Ustawienie budżetu na potrzeby myślenia wyłącza myślenie.

W zależności od promptu model może przekroczyć lub niedostatecznie budżet tokenu.

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)
import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

Korzystanie z narzędzi z modelami myślenia

Możesz połączyć swój sposób myślenia z dowolnymi narzędziami i zdolnościami Gemini do wykonywania działań innych niż generowanie tekstu. Dzięki temu mogą wchodzić w interakcje z zewnętrznymi systemami, wykonywać kod lub uzyskiwać dostęp do informacji w czasie rzeczywistym, co przekłada się na uwzględnianie wyników w rozumowaniu i końcowej odpowiedzi.

  • Narzędzie wyszukiwania umożliwia modelowi wysyłanie zapytań do zewnętrznych wyszukiwarek w celu znalezienia aktualnych informacji poza danymi treningowymi. Przydaje się to w przypadku pytań dotyczących ostatnich wydarzeń lub bardzo konkretnych tematów.

  • Narzędzie do wykonywania kodu umożliwia modelowi generowanie i uruchamianie kodu Pythona na potrzeby wykonywania obliczeń, manipulowania danymi lub rozwiązywania problemów, które najlepiej obsługiwać algorytmicznie. Model otrzymuje dane wyjściowe kodu i może ich użyć w swojej odpowiedzi.

  • Dzięki uporządkowanym wynikom możesz ograniczyć Gemini do odpowiadania w formacie JSON, który jest uporządkowanym formatem wyjściowym odpowiednim do przetwarzania automatycznego. Jest to szczególnie przydatne przy integrowaniu danych wyjściowych modelu z aplikacjami.

  • Wywoływanie funkcji łączy model myślowy z zewnętrznymi narzędziami i interfejsami API, dzięki czemu może myśleć, kiedy należy wywołać właściwą funkcję i jakie parametry podać.

Sprawdzone metody

W tej sekcji znajdziesz wskazówki dotyczące efektywnego wykorzystywania modeli myślenia. Jak zawsze, postępuj zgodnie z naszymi wskazówkami dotyczącymi promptów i sprawdzonymi metodami, aby uzyskać jak najlepsze wyniki.

Debugowanie i sterowanie

  • Przeanalizuj rozumowanie: jeśli nie otrzymasz oczekiwanej odpowiedzi od modeli myślących, pomocne może być dokładne analizowanie procesu rozumowania w Gemini. Możesz zobaczyć, jak zadanie zniszczyło zadanie i doszło do wniosków, oraz wykorzystać te informacje, aby poprawić wyniki.

  • Pomoc w rozumowaniu: jeśli oczekujesz szczególnie długich wyników, w prompcie umieść wskazówki ograniczające intensywność myślenia, którego używa model. Dzięki temu na potrzeby odpowiedzi zarezerwujesz więcej danych wyjściowych tokena.

Złożoność zadania

  • Łatwe zadania (myślenie może być wyłączone): w przypadku prostych zapytań nie jest wymagane złożone rozumowanie, np. proste wyszukiwanie faktów czy klasyfikacja. Przykłady:
    • „Gdzie założono DeepMind?”
    • „Czy ten e-mail jest zaproszeniem na spotkanie, czy tylko zawiera informacje?”
  • Średnie zadania (domyślne lub pewne myślenie): wiele typowych żądań wymaga przetwarzania krok po kroku lub głębszego zrozumienia. Gemini może elastycznie wykorzystywać zdolność do myślenia do zadań takich jak:
    • Analogize fotosyntezy i dojrzewania.
    • Porównaj samochody elektryczne i hybrydowe.
  • Trudne zadania (maksymalna zdolność do myślenia): w przypadku naprawdę złożonych wyzwań AI musi w pełni wykorzystać swoje możliwości rozumowania i planowania, często wykonując wiele wewnętrznych kroków, zanim poda odpowiedź. Przykłady:
    • Rozwiąż zadanie 1 w AIME 2025: znajdź sumę wszystkich zasad liczb całkowitych b > 9, dla których 17b to dzielnik liczby 97b.
    • Napisz kod Pythona dla aplikacji internetowej, która wizualizuje dane giełdowe w czasie rzeczywistym, w tym uwierzytelnianie użytkowników. Spraw, aby był jak najbardziej efektywny.

Co dalej?