Gemini के बारे में सोच

Gemini 2.5 सीरीज़ के मॉडल, जवाब जनरेट करने के दौरान एक "थिंकिंग प्रोसेस" का इस्तेमाल करते हैं. इस प्रोसेस से, मशीन लर्निंग की रीज़निंग की क्षमताएं बेहतर होती हैं. साथ ही, इससे मशीन लर्निंग को मुश्किल टास्क हल करने के लिए, कई चरणों में की जाने वाली प्लानिंग का इस्तेमाल करने में मदद मिलती है. इस वजह से, ये मॉडल कोडिंग, बेहतर गणित, डेटा विश्लेषण, और ऐसे अन्य टास्क में खास तौर पर अच्छे होते हैं जिनमें प्लानिंग या सोच-विचार की ज़रूरत होती है.

इस गाइड में, Gemini API का इस्तेमाल करके, Gemini की सोचने की क्षमताओं के साथ काम करने का तरीका बताया गया है.

सोच-समझकर जवाब देने वाले मॉडल का इस्तेमाल करना

सोचने की क्षमता वाले मॉडल, Google AI Studio और Gemini API के ज़रिए उपलब्ध हैं. एपीआई और AI Studio, दोनों में ही 'सोचने की सुविधा' डिफ़ॉल्ट रूप से चालू रहती है. इसकी वजह यह है कि 2.5 सीरीज़ के मॉडल, प्रॉम्प्ट के आधार पर यह अपने-आप तय कर सकते हैं कि कब और कितनी देर तक सोचना है. ज़्यादातर मामलों में, 'विचार जारी रखें' विकल्प को चुनना फ़ायदेमंद होता है. हालांकि, अगर आपको थिंकिंग को बंद करना है, तो thinkingBudget पैरामीटर को 0 पर सेट करें.

बुनियादी अनुरोध भेजना

Python

from google import genai

client = genai.Client(api_key="GOOGLE_API_KEY")
prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example."
response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents=prompt
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const prompt = "Explain the concept of Occam's Razor and provide a simple, everyday example.";

  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: prompt,
  });

  console.log(response.text);
}

main();

शुरू करें

// import packages here

func main() {
  ctx := context.Background()
  client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("GOOGLE_API_KEY")))
  if err != nil {
    log.Fatal(err)
  }
  defer client.Close()

  model := client.GenerativeModel("gemini-2.5-flash-preview-04-17")
  resp, err := model.GenerateContent(ctx, genai.Text("Explain the concept of Occam's Razor and provide a simple, everyday example."))
  if err != nil {
    log.Fatal(err)
  }
  fmt.Println(resp.Text())
}

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
 -H 'Content-Type: application/json' \
 -X POST \
 -d '{
   "contents": [
     {
       "parts": [
         {
           "text": "Explain the concept of Occam\''s Razor and provide a simple, everyday example."
         }
       ]
     }
   ]
 }'
 ```

थिंकिंग मॉडल पर बजट सेट करना

thinkingBudget पैरामीटर, मॉडल को यह जानकारी देता है कि जवाब जनरेट करते समय, कितने थिंकिंग टोकन का इस्तेमाल किया जा सकता है. आम तौर पर, ज़्यादा टोकन का मतलब ज़्यादा सोच-विचार से होता है. ज़्यादा सोच-विचार की ज़रूरत, ज़्यादा मुश्किल टास्क को हल करने के लिए होती है. thinkingBudget, 0 से 24576 के बीच का पूर्णांक होना चाहिए. थिंकिंग बजट को 0 पर सेट करने से, थिंकिंग की सुविधा बंद हो जाती है.

प्रॉम्प्ट के आधार पर, मॉडल टोकन बजट को ओवरफ़्लो या अंडरफ़्लो कर सकता है.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash-preview-04-17",
    contents="Explain the Occam's Razor concept and provide everyday examples of it",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_budget=1024)
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({ apiKey: "GOOGLE_API_KEY" });

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash-preview-04-17",
    contents: "Explain the Occam's Razor concept and provide everyday examples of it",
    config: {
      thinkingConfig: {
        thinkingBudget: 1024,
      },
    },
  });

  console.log(response.text);
}

main();

REST

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash-preview-04-17:generateContent?key=$GOOGLE_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
  "contents": [
    {
      "parts": [
        {
          "text": "Explain the Occam\''s Razor concept and provide everyday examples of it"
        }
      ]
    }
  ],
  "generationConfig": {
    "thinkingConfig": {
          "thinkingBudget": 1024
    }
  }
}'

सोचने के मॉडल वाले टूल इस्तेमाल करना

थिंकिंग मॉडल का इस्तेमाल, Gemini के किसी भी टूल और सुविधाओं के साथ किया जा सकता है. इससे, टेक्स्ट जनरेट करने के अलावा, अन्य कार्रवाइयां भी की जा सकती हैं. इससे वे बाहरी सिस्टम के साथ इंटरैक्ट कर सकते हैं, कोड चला सकते हैं या रीयल-टाइम जानकारी ऐक्सेस कर सकते हैं. साथ ही, नतीजों को अपनी वजह और आखिरी जवाब में शामिल कर सकते हैं.

  • सर्च टूल की मदद से, मॉडल बाहरी सर्च इंजन से क्वेरी कर सकता है, ताकि अप-टू-डेट जानकारी या ट्रेनिंग डेटा से परे जानकारी मिल सके. यह हाल ही के इवेंट या बहुत खास विषयों के बारे में सवाल पूछने के लिए मददगार है.

  • कोड चलाने वाला टूल, मॉडल को Python कोड जनरेट और चलाने की सुविधा देता है. इससे, कैलकुलेशन करने, डेटा में बदलाव करने या उन समस्याओं को हल करने में मदद मिलती है जिन्हें एल्गोरिदम की मदद से सबसे बेहतर तरीके से मैनेज किया जा सकता है. मॉडल को कोड का आउटपुट मिलता है और वह इसका इस्तेमाल अपने जवाब में कर सकता है.

  • स्ट्रक्चर्ड आउटपुट की मदद से, Gemini को JSON के साथ जवाब देने के लिए सीमित किया जा सकता है. यह स्ट्रक्चर्ड आउटपुट फ़ॉर्मैट, ऑटोमेटेड प्रोसेसिंग के लिए सही है. यह खास तौर पर, मॉडल के आउटपुट को ऐप्लिकेशन में इंटिग्रेट करने के लिए मददगार है.

  • फ़ंक्शन कॉलिंग, थिंकिंग मॉडल को बाहरी टूल और एपीआई से कनेक्ट करती है, ताकि यह तय किया जा सके कि सही फ़ंक्शन को कब कॉल किया जाए और कौनसे पैरामीटर देने हैं.

सबसे सही तरीके

इस सेक्शन में, थिंकिंग मॉडल को बेहतर तरीके से इस्तेमाल करने के लिए कुछ दिशा-निर्देश दिए गए हैं. हमेशा की तरह, प्रॉम्प्ट के लिए दिए गए दिशा-निर्देशों और सबसे सही तरीकों का पालन करने पर, आपको बेहतर नतीजे मिलेंगे.

डीबग करना और स्टीयर करना

  • तर्क की समीक्षा करना: जब आपको सोचने-समझने वाले मॉडल से उम्मीद के मुताबिक जवाब नहीं मिल रहा है, तो Gemini के तर्क की प्रोसेस का ध्यान से विश्लेषण करने से मदद मिल सकती है. आपके पास यह देखने का विकल्प होता है कि टास्क को कैसे बांटा गया और उससे क्या नतीजा मिला. साथ ही, सही नतीजे पाने के लिए, उस जानकारी का इस्तेमाल किया जा सकता है.

  • तर्क के लिए दिशा-निर्देश दें: अगर आपको लंबा आउटपुट चाहिए, तो अपने प्रॉम्प्ट में दिशा-निर्देश दें. इससे, मॉडल के इस्तेमाल की सोच-विचार की सीमा तय की जा सकती है. इससे, अपने जवाब के लिए टोकन आउटपुट का ज़्यादा हिस्सा रिज़र्व किया जा सकता है.

टास्क की जटिलता

  • आसान टास्क (सोचने की ज़रूरत नहीं है): आसान अनुरोधों के लिए, जटिल तर्क की ज़रूरत नहीं होती. जैसे, आसानी से तथ्यों को वापस पाना या उन्हें अलग-अलग कैटगरी में बांटना. उदाहरण के लिए:
    • "DeepMind की स्थापना कहां हुई थी?"
    • "क्या इस ईमेल में मीटिंग का अनुरोध किया गया है या सिर्फ़ जानकारी दी गई है?"
  • मध्यम टास्क (डिफ़ॉल्ट/कुछ सोच-विचार): कई सामान्य अनुरोधों को सिलसिलेवार तरीके से प्रोसेस करने या बेहतर तरीके से समझने से फ़ायदा मिलता है. Gemini, इन कामों के लिए, सोचने-समझने की सुविधा का इस्तेमाल कर सकता है:
    • प्रकाश संश्लेषण और बड़े होने की प्रक्रिया की तुलना करें.
    • इलेक्ट्रिक और हाइब्रिड कारों की तुलना करना.
  • मुश्किल टास्क (ज़्यादा से ज़्यादा सोचने की क्षमता): मुश्किल चुनौतियों के लिए, एआई को अपनी पूरी सोच और प्लानिंग की क्षमताओं का इस्तेमाल करना पड़ता है. अक्सर, जवाब देने से पहले कई इंटरनल चरण पूरे करने पड़ते हैं. उदाहरण के लिए:
    • AIME 2025 में पहला सवाल हल करें: उन सभी पूर्णांक के आधारों का योग ज्ञात करें जिनके लिए 17b, 97b का भाजक है और b > 9 है.
    • ऐसे वेब ऐप्लिकेशन के लिए Python कोड लिखें जो उपयोगकर्ता की पुष्टि करने के साथ-साथ, रीयल-टाइम स्टॉक मार्केट डेटा को विज़ुअलाइज़ करता हो. इसे ज़्यादा से ज़्यादा असरदार बनाएं.

आगे क्या करना है?

  • Google AI Studio में, Gemini 2.5 Pro की झलक आज़माएं.
  • Gemini 2.5 Pro की झलक और Gemini Flash 2.0 Thinking के बारे में ज़्यादा जानने के लिए, मॉडल पेज देखें.
  • Thinking cookbook में और उदाहरण देखें.