Gemini API की खास जानकारी

Gemini API की मदद से, आपको Google के नए जनरेटिव मॉडल का ऐक्सेस मिलता है. एपीआई की मदद से मिलने वाली सामान्य सुविधाओं के बारे में जानने के बाद, अपनी पसंदीदा भाषा चुनने के लिए ट्यूटोरियल देखें.

मॉडल

Gemini, मल्टीमोडल जनरेटिव एआई मॉडल की एक सीरीज़ है. इसे Google ने बनाया है. Gemini मॉडल, प्रॉम्प्ट में दिए गए टेक्स्ट और इमेज को स्वीकार कर सकते हैं. हालाँकि, यह इस बात पर निर्भर करता है कि आपने कौनसा मॉडल चुना है और आउटपुट के तौर पर किस तरह का टेक्स्ट दिया गया है.

मॉडल के बारे में ज़्यादा जानने के लिए, Gemini के मॉडल वाला पेज देखें. सभी उपलब्ध मॉडल की सूची बनाने के लिए, list_models तरीके का इस्तेमाल किया जा सकता है. इसके बाद, किसी मॉडल का मेटाडेटा पाने के लिए, get_model तरीके का इस्तेमाल किया जा सकता है.

प्रॉम्प्ट से जुड़ा डेटा और डिज़ाइन

Gemini के कुछ चुनिंदा मॉडल, इनपुट के तौर पर टेक्स्ट डेटा और मीडिया फ़ाइलें, दोनों को स्वीकार करते हैं. इस क्षमता की वजह से, कॉन्टेंट जनरेट करने, डेटा का विश्लेषण करने, और समस्याओं को हल करने के कई और मौके पैदा होते हैं. हालांकि, आपको कुछ सीमाओं और शर्तों को ध्यान में रखना होगा. जैसे, इस्तेमाल किए जा रहे मॉडल के लिए इनपुट टोकन की सामान्य सीमा. कुछ मॉडल के लिए टोकन की सीमाओं के बारे में जानकारी पाने के लिए, Gemini के मॉडल देखें.

Gemini API का इस्तेमाल करने वाले प्रॉम्प्ट का साइज़, 20 एमबी से ज़्यादा नहीं होना चाहिए. Gemini API, प्रॉम्प्ट के लिए मीडिया फ़ाइलों को कुछ समय के लिए सेव करने के लिए, एक File API उपलब्ध कराता है. इसकी मदद से, प्रॉम्प्ट के लिए 20 एमबी से ज़्यादा का डेटा उपलब्ध कराया जा सकता है. प्रॉम्प्ट के लिए काम करने वाले Files API और फ़ाइल फ़ॉर्मैट के इस्तेमाल के बारे में ज़्यादा जानकारी के लिए, मीडिया फ़ाइलों से प्रॉम्प्ट देना देखें.

प्रॉम्प्ट डिज़ाइन और टेक्स्ट इनपुट

असरदार प्रॉम्प्ट बनाना या प्रॉम्प्ट इंजीनियरिंग करना, कला और विज्ञान, दोनों का मिला-जुला रूप है. प्रॉम्प्ट के अलग-अलग तरीकों के बारे में जानने के लिए, प्रॉम्प्ट के बारे में शुरुआती जानकारी देखें. साथ ही, प्रॉम्प्ट के अलग-अलग तरीकों के बारे में जानने के लिए, प्रॉम्प्ट 101 गाइड देखें.

कॉन्टेंट जनरेट करें

Gemini API के ज़रिए प्रॉम्प्ट देने के लिए, टेक्स्ट और इमेज, दोनों का डेटा इस्तेमाल किया जा सकता है. यह इस बात पर निर्भर करता है कि आपने किस मॉडल का इस्तेमाल किया है. उदाहरण के लिए, Gemini के 1.5 मॉडल का इस्तेमाल करके, सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट या मल्टीमोडल प्रॉम्प्ट से टेक्स्ट जनरेट किया जा सकता है. इस सेक्शन में, हर एक के लिए बेसिक कोड के उदाहरण दिए गए हैं. सभी पैरामीटर के बारे में ज़्यादा जानकारी देने वाले उदाहरण के लिए, generateContent एपीआई का रेफ़रंस देखें.

टेक्स्ट और इमेज इनपुट

दृष्टि से जुड़ा कोई टास्क करने के लिए, Gemini के 1.5 मॉडल पर इमेज के साथ टेक्स्ट प्रॉम्प्ट भेजा जा सकता है. उदाहरण के लिए, किसी इमेज को कैप्शन देना या उसमें मौजूद कॉन्टेंट की पहचान करना.

कोड के ये उदाहरण, इस्तेमाल की जा सकने वाली हर भाषा के लिए टेक्स्ट और इमेज प्रॉम्प्ट को बुनियादी तौर पर लागू करने के बारे में बताते हैं:

Python

model = genai.GenerativeModel('gemini-1.5-flash')

cookie_picture = {
    'mime_type': 'image/png',
    'data': pathlib.Path('cookie.png').read_bytes()
}
prompt = "Do these look store-bought or homemade?"

response = model.generate_content(
    model="gemini-1.5-flash",
    content=[prompt, cookie_picture]
)
print(response.text)

पूरा कोड स्निपेट देखने के लिए, Python ट्यूटोरियल देखें.

शुरू करें

vmodel := client.GenerativeModel("gemini-1.5-flash")

data, err := os.ReadFile(filepath.Join("path-to-image", imageFile))
if err != nil {
  log.Fatal(err)
}
resp, err := vmodel.GenerateContent(ctx, genai.Text("Do these look store-bought or homemade?"), genai.ImageData("jpeg", data))
if err != nil {
  log.Fatal(err)
}

पूरे उदाहरण के लिए ट्यूटोरियल देखें.

Node.js

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });

const prompt = "Do these look store-bought or homemade?";
const image = {
  inlineData: {
    data: Buffer.from(fs.readFileSync("cookie.png")).toString("base64"),
    mimeType: "image/png",
  },
};

const result = await model.generateContent([prompt, image]);
console.log(result.response.text());

पूरे उदाहरण के लिए Node.js ट्यूटोरियल देखें.

वेब

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });

const prompt = "Do these look store-bought or homemade?";
const image = {
  inlineData: {
    data: base64EncodedImage /* see JavaScript quickstart for details */,
    mimeType: "image/png",
  },
};

const result = await model.generateContent([prompt, image]);
console.log(result.response.text());

पूरे उदाहरण के लिए वेब ट्यूटोरियल देखें.

डार्ट (फ़्लटर)

final model = GenerativeModel(model: 'gemini-1.5-flash', apiKey: apiKey);
final prompt = 'Do these look store-bought or homemade?';
final imageBytes = await File('cookie.png').readAsBytes();
final content = [
  Content.multi([
    TextPart(prompt),
    DataPart('image/png', imageBytes),
  ])
];

final response = await model.generateContent(content);
print(response.text);

बेहतर उदाहरण के लिए, Dart (Flutter) का ट्यूटोरियल देखें.

Swift

let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: "API_KEY")
let cookieImage = UIImage(...)
let prompt = "Do these look store-bought or homemade?"

let response = try await model.generateContent(prompt, cookieImage)

पूरा उदाहरण देखने के लिए, Swift ट्यूटोरियल देखें.

Android

val generativeModel = GenerativeModel(
    modelName = "gemini-1.5-flash",
    apiKey = BuildConfig.apiKey
)

val cookieImage: Bitmap = // ...
val inputContent = content() {
  image(cookieImage)
  text("Do these look store-bought or homemade?")
}

val response = generativeModel.generateContent(inputContent)
print(response.text)

पूरे उदाहरण के लिए Android ट्यूटोरियल देखें.

cURL

curl https://generativelanguage.googleapis.com/v1/models/gemini-1.5-flash:generateContent?key=${API_KEY} \
    -H 'Content-Type: application/json' \
    -X POST \
    -d @<(echo'{
          "contents":[
            { "parts":[
                {"text": "Do these look store-bought or homemade?"},
                { "inlineData": {
                    "mimeType": "image/png",
                    "data": "'$(base64 -w0 cookie.png)'"
                  }
                }
              ]
            }
          ]
         }')

ज़्यादा जानकारी के लिए, REST API का ट्यूटोरियल देखें.

सिर्फ़ टेक्स्ट वाला इनपुट

Gemini API, सिर्फ़ टेक्स्ट इनपुट को भी हैंडल कर सकता है. इस सुविधा से, नैचुरल लैंग्वेज प्रोसेसिंग (एनएलपी) से जुड़े टास्क किए जा सकते हैं. जैसे, पूरा टेक्स्ट लिखना और खास जानकारी लिखना.

यहां दिए गए कोड के उदाहरणों में, हर भाषा के लिए सिर्फ़ टेक्स्ट वाले प्रॉम्प्ट को लागू करने की बुनियादी जानकारी दिखाई गई है:

Python

model = genai.GenerativeModel('gemini-1.5-flash')

prompt = "Write a story about a magic backpack."

response = model.generate_content(prompt)

पूरे उदाहरण के लिए Python ट्यूटोरियल देखें.

शुरू करें

ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
  log.Fatal(err)
}
defer client.Close()

model := client.GenerativeModel("gemini-1.5-flash")
resp, err := model.GenerateContent(ctx, genai.Text("Write a story about a magic backpack."))
if err != nil {
  log.Fatal(err)
}

पूरे उदाहरण के लिए ट्यूटोरियल देखें.

Node.js

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });
const prompt = "Write a story about a magic backpack.";

const result = await model.generateContent(prompt);
console.log(result.response.text());

पूरे उदाहरण के लिए Node.js ट्यूटोरियल देखें.

वेब

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });
const prompt = "Write a story about a magic backpack.";

const result = await model.generateContent(prompt);
console.log(result.response.text());

पूरे उदाहरण के लिए वेब ट्यूटोरियल देखें.

डार्ट (फ़्लटर)

final model = GenerativeModel(model: 'gemini-1.5-flash', apiKey: apiKey);
final prompt = 'Write a story about a magic backpack.';
final content = [Content.text(prompt)];
final response = await model.generateContent(content);
print(response.text);

बेहतर उदाहरण के लिए, Dart (Flutter) का ट्यूटोरियल देखें.

Swift

let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: "API_KEY")
let prompt = "Write a story about a magic backpack."

let response = try await model.generateContent(prompt)

पूरा उदाहरण देखने के लिए, Swift ट्यूटोरियल देखें.

Android

val generativeModel = GenerativeModel(
    modelName = "gemini-1.5-flash",
    apiKey = BuildConfig.apiKey
)

val prompt = "Write a story about a magic backpack."
val response = generativeModel.generateContent(prompt)
print(response.text)

पूरे उदाहरण के लिए Android ट्यूटोरियल देखें.

cURL

curl https://generativelanguage.googleapis.com/v1/models/gemini-1.5-flash:generateContent?key=$API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{ "contents":[
      { "parts":[{"text": "Write a story about a magic backpack"}]}
    ]
}'

ज़्यादा जानकारी के लिए, REST API का ट्यूटोरियल देखें.

एक से ज़्यादा बार होने वाली बातचीत (चैट)

Gemini API का इस्तेमाल करके, लोगों के लिए चैट का इंटरैक्टिव अनुभव बनाया जा सकता है. एपीआई की चैट की सुविधा का इस्तेमाल करने पर, आपको अलग-अलग तरह के सवाल और जवाब इकट्ठा करने की सुविधा मिलती है. इससे, उपयोगकर्ताओं को तेज़ी से जवाबों की ओर आगे बढ़ने या कई हिस्सों में होने वाली समस्याओं में मदद पाने में मदद मिलती है. यह सुविधा उन ऐप्लिकेशन के लिए बहुत काम की है जिनमें लगातार बातचीत करने की ज़रूरत होती है. जैसे, चैटबॉट, इंटरैक्टिव ट्यूटर या ग्राहक सहायता असिस्टेंट.

कोड के ये उदाहरण, इस्तेमाल की जा सकने वाली हर भाषा के लिए चैट इंटरैक्शन को बुनियादी तौर पर लागू करने के बारे में बताते हैं:

Python

  model = genai.GenerativeModel('gemini-1.5-flash')
  chat = model.start_chat(history=[])

  response = chat.send_message(
      "Pretend you\'re a snowman and stay in character for each response.")
  print(response.text)

  response = chat.send_message(
      "What\'s your favorite season of the year?")
  print(response.text)

पूरे उदाहरण के लिए, Python ट्यूटोरियल में चैट डेमो देखें.

शुरू करें

model := client.GenerativeModel("gemini-1.5-flash")
cs := model.StartChat()
cs.History = []*genai.Content{
  &genai.Content{
    Parts: []genai.Part{
      genai.Text("Pretend you're a snowman and stay in character for each response."),
    },
    Role: "user",
  },
  &genai.Content{
    Parts: []genai.Part{
      genai.Text("Hello! It's cold! Isn't that great?"),
    },
    Role: "model",
  },
}

resp, err := cs.SendMessage(ctx, genai.Text("What's your favorite season of the year?"))
if err != nil {
  log.Fatal(err)
}

पूरे उदाहरण के लिए, ट्यूटोरियल में चैट का डेमो देखें.

Node.js

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash"});

const chat = model.startChat({
  history: [
    {
      role: "user",
      parts: "Pretend you're a snowman and stay in character for each response.",
    },
    {
      role: "model",
      parts: "Hello! It's cold! Isn't that great?",
    },
  ],
  generationConfig: {
    maxOutputTokens: 100,
  },
});

const msg = "What's your favorite season of the year?";
const result = await chat.sendMessage(msg);
console.log(result.response.text());

पूरे उदाहरण के लिए Node.js ट्यूटोरियल में चैट डेमो देखें.

वेब

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash"});

const chat = model.startChat({
  history: [
    {
      role: "user",
      parts: "Pretend you're a snowman and stay in character for each response.",
    },
    {
      role: "model",
      parts: "Hello! It's so cold! Isn't that great?",
    },
  ],
  generationConfig: {
    maxOutputTokens: 100,
  },
});

const msg = "What's your favorite season of the year?";
const result = await chat.sendMessage(msg);
console.log(result.response.text());

पूरे उदाहरण के लिए, वेब ट्यूटोरियल में चैट का डेमो देखें.

डार्ट (फ़्लटर)

final model = GenerativeModel(model: 'gemini-1.5-flash', apiKey: apiKey);
final chat = model.startChat(history: [
  Content.text(
      "Pretend you're a snowman and stay in character for each response."),
  Content.model([TextPart("Hello! It's cold! Isn't that great?")]),
]);
final content = Content.text("What's your favorite season of the year?");
final response = await chat.sendMessage(content);
print(response.text);

इसका पूरा उदाहरण देखने के लिए, Dart (Flutter) ट्यूटोरियल में चैट डेमो देखें.

Swift

let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: "API_KEY")
let chat = model.startChat()

var message = "Pretend you're a snowman and stay in character for each response."
var response = try await chat.sendMessage(message)

message = "What\'s your favorite season of the year?"
response = try await chat.sendMessage(message)

पूरे उदाहरण के लिए, Swift ट्यूटोरियल में चैट डेमो देखें.

Android

val generativeModel = GenerativeModel(
    modelName = "gemini-1.5-flash",
    apiKey = BuildConfig.apiKey
)

val chat = generativeModel.startChat()
val response = chat.sendMessage("Pretend you're a snowman and stay in
        character for each response.")
print(response.text)

पूरे उदाहरण के लिए Android ट्यूटोरियल देखें.

cURL

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash:generateContent?key=$API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [
        {"role":"user",
         "parts":[{
           "text": "Pretend you're a snowman and stay in character for each
        {"role": "model",
            response."}]},
         "parts":[{
           "text": "Hello! It's so cold! Isn't that great?"}]},
        {"role": "user",
         "parts":[{
           "text": "What\'s your favorite season of the year?"}]},
       ]
    }' 2> /dev/null | grep "text"
# response example:
"text": "Winter, of course!"

ज़्यादा जानकारी के लिए, REST API का ट्यूटोरियल देखें.

स्ट्रीम किए गए जवाब

Gemini API, जनरेटिव एआई मॉडल से जवाब पाने का एक और तरीका है: इसे डेटा स्ट्रीम के तौर पर इस्तेमाल किया जा सकता है. स्ट्रीम किए गए रिस्पॉन्स से आपके ऐप्लिकेशन में डेटा के बढ़ते हुए हिस्से वापस भेजे जाते हैं, क्योंकि यह मॉडल से जनरेट होता है. इस सुविधा से, उपयोगकर्ता के अनुरोध का तुरंत जवाब दिया जा सकता है, ताकि प्रोग्रेस दिखाई जा सके और ज़्यादा इंटरैक्टिव अनुभव बनाया जा सके.

स्ट्रीम किए गए जवाबों का इस्तेमाल, फ़्रीफ़ॉर्म प्रॉम्प्ट और Gemini मॉडल के साथ चैट करने के लिए किया जा सकता है. यहां दिए गए कोड के उदाहरणों में, हर भाषा के लिए प्रॉम्प्ट के लिए स्ट्रीम किए गए रिस्पॉन्स का अनुरोध करने का तरीका बताया गया है:

Python

prompt = "Write a story about a magic backpack."

response = genai.stream_generate_content(
    model="models/gemini-1.5-flash",
    prompt=prompt
)

पूरा कोड स्निपेट देखने के लिए, Python ट्यूटोरियल देखें.

शुरू करें

ctx := context.Background()
client, err := genai.NewClient(ctx, option.WithAPIKey(os.Getenv("API_KEY")))
if err != nil {
  log.Fatal(err)
}
defer client.Close()

model := client.GenerativeModel("gemini-1.5-flash")

iter := model.GenerateContentStream(ctx, genai.Text("Write a story about a magic backpack."))
for {
  resp, err := iter.Next()
  if err == iterator.Done {
    break
  }
  if err != nil {
    log.Fatal(err)
  }

  // print resp
}

पूरे उदाहरण के लिए ट्यूटोरियल देखें.

Node.js

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });
const prompt = "Write a story about a magic backpack.";

const result = await model.generateContentStream([prompt]);
// print text as it comes in
for await (const chunk of result.stream) {
  const chunkText = chunk.text();
  console.log(chunkText);
}

पूरे उदाहरण के लिए Node.js ट्यूटोरियल देखें.

वेब

const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });
const prompt = "Write a story about a magic backpack.";

const result = await model.generateContentStream([prompt]);
// print text as it comes in
for await (const chunk of result.stream) {
  const chunkText = chunk.text();
  console.log(chunkText);
}

पूरे उदाहरण के लिए वेब ट्यूटोरियल देखें.

डार्ट (फ़्लटर)

final model = GenerativeModel(model: 'gemini-1.5-flash', apiKey: apiKey);
final prompt = 'Write a story about a magic backpack.';
final content = [Content.text(prompt)];
final response = model.generateContentStream(content);
await for (final chunk in response) {
  print(chunk.text);
}

बेहतर उदाहरण के लिए, Dart (Flutter) का ट्यूटोरियल देखें.

Swift

let model = GenerativeModel(name: "gemini-1.5-flash", apiKey: "API_KEY")
let prompt = "Write a story about a magic backpack."

let stream = model.generateContentStream(prompt)
for try await chunk in stream {
  print(chunk.text ?? "No content")
}

पूरा उदाहरण देखने के लिए, Swift ट्यूटोरियल देखें.

Android

val generativeModel = GenerativeModel(
    modelName = "gemini-1.5-flash",
    apiKey = BuildConfig.apiKey
)

val inputContent = content {
  text("Write a story about a magic backpack.")
}

var fullResponse = ""
generativeModel.generateContentStream(inputContent).collect { chunk ->
  print(chunk.text)
  fullResponse += chunk.text
}

पूरे उदाहरण के लिए Android ट्यूटोरियल देखें.

cURL

curl https://generativelanguage.googleapis.com/v1/models/gemini-1.5-flash:streamGenerateContent?key=${API_KEY} \
    -H 'Content-Type: application/json' \
    --no-buffer \
    -d '{ "contents":[
            {"role": "user",
              "parts":[{"text": "Write a story about a magic backpack."}]
            }
          ]
        }' > response.json

ज़्यादा जानकारी के लिए, REST API का ट्यूटोरियल देखें.

JSON फ़ॉर्मैट में मिले जवाब

अपने ऐप्लिकेशन के हिसाब से, हो सकता है कि आप प्रॉम्प्ट के जवाब को स्ट्रक्चर्ड डेटा फ़ॉर्मैट में दिखाना चाहें. ऐसा खास तौर पर तब करें, जब प्रोग्रामिंग इंटरफ़ेस में अपने-आप जानकारी भरने के लिए रिस्पॉन्स का इस्तेमाल किया जा रहा हो. JSON फ़ॉर्मैट में जवाब का अनुरोध करने के लिए, Gemini API एक कॉन्फ़िगरेशन पैरामीटर देता है.

response_mime_type के कॉन्फ़िगरेशन का विकल्प application/json पर सेट करके, आउटपुट JSON दिया जा सकता है. इसके बाद, प्रॉम्प्ट में उस JSON के फ़ॉर्मैट के बारे में बताएं जिसे आपको रिस्पॉन्स में चाहिए:

Python

model = genai.GenerativeModel('gemini-1.5-flash',
                              generation_config={"response_mime_type": "application/json"})

prompt = """
  List 5 popular cookie recipes.

  Using this JSON schema:

    Recipe = {"recipe_name": str}

  Return a `list[Recipe]`
  """

response = model.generate_content(prompt)
print(response.text)

cURL

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash:generateContent?key=$API_KEY \
    -H 'Content-Type: application/json' \
    -X POST \
    -d '{
      "contents": [
        {
          "parts": [
            {
              "text": "\nList 5 popular cookie recipes.\n\nUsing this JSON schema:\n\n  Recipe = {\"recipe_name\": str}\n\nReturn a `list[Recipe]`\n      "
            }
          ]
        }
      ]
      "generationConfig": {
            "response_mime_type": "application/json",
      }
    }'

Gemini 1.5 Flash मॉडल सिर्फ़ उस JSON स्कीमा के टेक्स्ट ब्यौरे को स्वीकार करते हैं जिसे आपको लौटाना है. Gemini 1.5 Pro मॉडल की मदद से, स्कीमा ऑब्जेक्ट (या Python टाइप) को पास किया जा सकता है. मॉडल आउटपुट उस स्कीमा का पूरी तरह से पालन करता है. इसे कंट्रोल की गई जनरेशन या कंस्ट्रक्शन डिकोडिंग के नाम से भी जाना जाता है.

उदाहरण के लिए, Recipe ऑब्जेक्ट की सूची पाने के लिए, generation_config आर्ग्युमेंट के response_schema फ़ील्ड में list[Recipe] को पास करें:

Python

import typing_extensions as typing

class Recipe(typing.TypedDict):
  recipe_name: str

model = genai.GenerativeModel(model_name="models/gemini-1.5-pro")

result = model.generate_content(
  "List 5 popular cookie recipes",
  generation_config=genai.GenerationConfig(response_mime_type="application/json",
                                           response_schema = list[Recipe]))

print(result.text)

cURL

  curl https://generativelanguage.googleapis.com/v1beta/models/models/gemini-1.5-pro:generateContent?
      -H 'Content-Type: application/json'
      -X POST \
      -d '{
        "contents": [
          {
            "parts": [
              {
                "text": "List 5 popular cookie recipes"
              }
            ]
          }
        ],
        "generationConfig": {
          "responseMimeType": "application/json",
          "responseSchema": {
            "type": "ARRAY",
            "items": {
              "type": "OBJECT",
              "properties": {
                "recipe_name": {
                  "type": "STRING"
                }
              }
            }
          }
        }
      }'
  ```

ज़्यादा जानने के लिए, Gemini API कुकबुक में JSON मोड क्विकस्टार्ट देखें.

एम्बेड करना

Gemini API में एम्बेड करने की सेवा, शब्दों, वाक्यांशों, और वाक्यों को एम्बेड करने की सबसे बेहतरीन सुविधा जनरेट करती है. इसके बाद, एम्बेड की गई चीज़ों का इस्तेमाल एनएलपी से जुड़े कामों के लिए किया जा सकता है. जैसे, सिमैंटिक खोज करना, टेक्स्ट की कैटगरी तय करना, और क्लस्टरिंग वगैरह. एम्बेड करने से जुड़ी गाइड देखें और जानें कि एम्बेड करना क्या होता है. साथ ही, एम्बेड करने की सेवा शुरू करने के लिए, इसके इस्तेमाल के कुछ मुख्य उदाहरण देखें.

अगले चरण

  • Google AI Studio क्विकस्टार्ट की मदद से, Google AI Studio के यूज़र इंटरफ़ेस (यूआई) का इस्तेमाल शुरू करें.
  • Python, Go या Node.js के लिए दिए गए ट्यूटोरियल की मदद से, Gemini API का सर्वर-साइड ऐक्सेस आज़माएं.
  • वेब ट्यूटोरियल की मदद से, वेब के लिए जानकारी बनाना शुरू करें.
  • Swift ट्यूटोरियल या Android ट्यूटोरियल की मदद से, मोबाइल ऐप्लिकेशन बनाना शुरू करें.
  • अगर आप Google Cloud के मौजूदा उपयोगकर्ता हैं या आपको Google Cloud के दमदार नेटवर्क का फ़ायदा पाने के लिए, Vertex पर Gemini का इस्तेमाल करना है, तो ज़्यादा जानकारी के लिए Vertex AI पर जनरेटिव एआई को देखें.