PaLM (decommissioned)

तरीका: models.generateText

दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model या TunedModel नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

प्रॉम्प्ट मिलने पर, मॉडल एक Textपूरा जवाब जनरेट करेगा, जिसका अनुमान लगाया गया है कि इनपुट टेक्स्ट पूरा हो गया है.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting इंस्टेंस की सूची.

जिसे GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, safetySettings में बताए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.

stopSequences[] string

वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.temperature एट्रिब्यूट देखें.

वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इस नीति को सेट नहीं किया जाता है, तो यह Model की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.

topP number

ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_p एट्रिब्यूट से getModel फ़ंक्शन मिला है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-K सैंपलिंग, topK के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_k एट्रिब्यूट से getModel फ़ंक्शन मिला है.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

तरीका: models.countTextTokens

यह किसी टेक्स्ट पर मॉडल का टॉकेटर चलाता है और टोक़न की संख्या दिखाता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

जवाब का मुख्य भाग

models.countTextTokens से मिला जवाब.

यह prompt के लिए, मॉडल का tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

उन टोकन की संख्या जिनमें model, prompt को टोकन देता है.

हमेशा नकारात्मक.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: models.generateMessage

दिए गए इनपुट MessagePrompt मॉडल से रिस्पॉन्स जनरेट करता है.

एंडपॉइंट

पोस्ट करें https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

पाथ पैरामीटर

model string

ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.

फ़ॉर्मैट: name=models/{model}. यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट वाला इनपुट.

प्रॉम्प्ट मिलने पर, मॉडल यह अनुमान लगाएगा कि बातचीत में अगला मैसेज क्या होगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है.

वैल्यू [0.0,1.0] से ज़्यादा भी हो सकती है. इसमें ये वैल्यू भी शामिल हैं. 1.0 के करीब की वैल्यू से, अलग-अलग तरह के जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से कम चौंकाने वाले जवाब मिलेंगे.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाब वाले मैसेज की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.

यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.

न्यूक्लियस सैंपलिंग में, टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिनकी संभावना का योग कम से कम topP होता है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे संभावित टोकन का सेट शामिल होता है.

जवाब का मुख्य भाग

मॉडल का जवाब.

इसमें उम्मीदवार के मैसेज और बातचीत का इतिहास, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर शामिल है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
candidates[] object (Message)

मॉडल से उम्मीदवार के जवाब के मैसेज.

messages[] object (Message)

बातचीत के इतिहास का इस्तेमाल, मॉडल करता है.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

तरीका: models.countMessageTokens

यह किसी स्ट्रिंग पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.

एंडपॉइंट

पोस्ट करना https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. वह प्रॉम्प्ट जिसका टोकन की संख्या दिखाना है.

जवाब का मुख्य भाग

models.countMessageTokens से मिला जवाब.

यह prompt के लिए, मॉडल के tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

model, prompt को टोकन में बदलता है. prompt को टोकन में बदलने पर, टोकन की संख्या.

हमेशा नकारात्मक.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: Model.embedText

दिए गए इनपुट मैसेज के मॉडल से एम्बेडिंग जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है. यह models/{model} का रूप लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
text string

ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.

जवाब का मुख्य भाग

EmbedTextRequest के लिए रिस्पॉन्स.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embedding object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.

JSON के काेड में दिखाना
{
  "embedding": {
    object (Embedding)
  }
}

तरीका: models.batchEmbedText

सिंक्रोनस कॉल में दिए गए मॉडल के इनपुट टेक्स्ट से, एक से ज़्यादा एम्बेड करने की सुविधा जनरेट करती है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

पाथ पैरामीटर

model string

ज़रूरी है. एम्बेड करने की प्रोसेस जनरेट करने में इस्तेमाल करने के लिए Model का नाम. उदाहरण: Model/embedding-gecko-001 यह models/{model} का फ़ॉर्म लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
texts[] string

ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिन्हें मॉडल एम्बेडिंग में बदल देगा. मौजूदा सीमा 100 मैसेज की है. इसके बाद, गड़बड़ी का मैसेज दिखाया जाएगा.

requests[] object (EmbedTextRequest)

ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts या requests में से सिर्फ़ एक को सेट किया जा सकता है.

जवाब का मुख्य भाग

EmbedTextRequest के लिए रिस्पॉन्स.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embeddings[] object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किए गए एम्बेड.

JSON के काेड में दिखाना
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

मॉडल से टेक्स्ट एम्बेड करने के लिए अनुरोध करें.

फ़ील्ड
model string

ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम.

text string

ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.

JSON के काेड में दिखाना
{
  "model": string,
  "text": string
}

तरीका: TunerModels.generateText

इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model या TunedModel नाम. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह tunedModels/{tunedmodel} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में यह डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

प्रॉम्प्ट मिलने पर, मॉडल एक Textपूरा जवाब जनरेट करेगा, जिसका अनुमान लगाया गया है कि इनपुट टेक्स्ट पूरा हो गया है.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting इंस्टेंस की सूची.

जिसे GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, safetySettings में बताए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.

stopSequences[] string

वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.temperature एट्रिब्यूट देखें.

वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इस नीति को सेट नहीं किया जाता है, तो यह Model की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.

topP number

ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_p एट्रिब्यूट से getModel फ़ंक्शन मिला है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-K सैंपलिंग, topK के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_k एट्रिब्यूट से getModel फ़ंक्शन मिला है.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

ContentFilter

किसी एक अनुरोध को प्रोसेस करने से जुड़ा कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.

ContentFilter में वजह और इस्तेमाल करने के लिए एक वैकल्पिक स्ट्रिंग होती है. ऐसा हो सकता है कि इसकी वजह न बताई गई हो.

फ़ील्ड
reason enum (BlockedReason)

अनुरोध प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक किए जाने की वजह.

message string

फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देने वाली स्ट्रिंग.

JSON के काेड में दिखाना
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

कॉन्टेंट को ब्लॉक किए जाने की वजहों की सूची.

Enums
BLOCKED_REASON_UNSPECIFIED ब्लॉक किए जाने की वजह नहीं बताई गई.
SAFETY सुरक्षा सेटिंग के तहत कॉन्टेंट को ब्लॉक किया गया है.
OTHER कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन उसकी वजह साफ़ नहीं है.

एम्बेड करना

एम्बेड करने की जानकारी देने वाले फ़्लोट की सूची.

फ़ील्ड
value[] number

एम्बेड करने वाली वैल्यू.

JSON के काेड में दिखाना
{
  "value": [
    number
  ]
}

मैसेज

स्ट्रक्चर्ड टेक्स्ट की बेस यूनिट.

Message में author और Message का content शामिल होता है.

author का इस्तेमाल मैसेज को टैग करने के लिए तब किया जाता है, जब उन्हें मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.

फ़ील्ड
author string

ज़रूरी नहीं. इस मैसेज का लेखक.

यह इस मैसेज के कॉन्टेंट को टैग करने के लिए एक कुंजी के तौर पर काम करता है. ऐसा तब होता है, जब मैसेज को मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.

लेखक के तौर पर, अक्षर और अंकों वाली कोई भी स्ट्रिंग इस्तेमाल की जा सकती है.

content string

ज़रूरी है. स्ट्रक्चर्ड Message का टेक्स्ट कॉन्टेंट.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस Message में, मॉडल से जनरेट किए गए content के लिए उद्धरण की जानकारी.

अगर इस Message को मॉडल से आउटपुट के तौर पर जनरेट किया गया था, तो content में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भरी जा सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.

JSON के काेड में दिखाना
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

मॉडल को प्रॉम्प्ट के तौर पर दिया गया, स्ट्रक्चर्ड इनपुट टेक्स्ट.

MessagePrompt में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के लिए कॉन्टेक्स्ट उपलब्ध कराता है. साथ ही, इसमें उपयोगकर्ता के इनपुट/मॉडल आउटपुट मैसेज पेयर के ऐसे उदाहरण होते हैं जो मॉडल को अलग-अलग तरीके से जवाब देने के लिए ज़रूरी बनाते हैं. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची शामिल होती है.

फ़ील्ड
context string

ज़रूरी नहीं. जवाब देने के लिए, मॉडल को सबसे पहले यह टेक्स्ट दिया जाना चाहिए.

अगर वैल्यू खाली नहीं है, तो यह context, examples और messages से पहले वाले मॉडल को दिया जाएगा. context का इस्तेमाल करते समय, इसे हर अनुरोध के साथ ज़रूर दें, ताकि अनुरोधों को लगातार भेजा जा सके.

यह फ़ील्ड, मॉडल को दिए गए आपके प्रॉम्प्ट के बारे में जानकारी दे सकता है. इससे, आपको कॉन्टेक्स्ट देने और जवाबों को गाइड करने में मदद मिलती है. उदाहरण: "इस वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "इस वाक्य के हिसाब से, सेंटीमेंट को खुश, उदास या सामान्य के तौर पर बांटें."

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है और इनपुट का अनुरोध छोटा कर दिया गया है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास के मुकाबले ज़्यादा अहमियत दी जाएगी.

examples[] object (Example)

ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.

इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स शामिल है जिसे मॉडल को एम्युलेट करना चाहिए.

इन examples को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, messages के इतिहास के मुकाबले, इन्हें प्राथमिकता दी जाती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी. आइटम को examples से पहले messages से हटा दिया जाएगा.

messages[] object (Message)

ज़रूरी है. हाल ही की बातचीत के इतिहास का स्नैपशॉट, जिसे समय के हिसाब से क्रम में लगाया गया है.

दो लेखकों के बीच बारी-बारी से स्विच करता है.

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी: सबसे पुराने आइटम messages से हटा दिए जाएंगे.

JSON के काेड में दिखाना
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

उदाहरण

इनपुट/आउटपुट का उदाहरण, जिसका इस्तेमाल मॉडल को निर्देश देने के लिए किया जाता है.

इससे पता चलता है कि मॉडल को किस तरह जवाब देना चाहिए या अपने जवाब को किस तरह फ़ॉर्मैट करना चाहिए.

फ़ील्ड
input object (Message)

ज़रूरी है. उपयोगकर्ता के इनपुट Message का उदाहरण.

output object (Message)

ज़रूरी है. दिए गए इनपुट के हिसाब से मॉडल को क्या आउटपुट करना चाहिए, इसका उदाहरण.

JSON के काेड में दिखाना
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

मॉडल से मिला जवाब, जिसमें उम्मीदवार के जवाब भी शामिल होते हैं.

फ़ील्ड
candidates[] object (TextCompletion)

मॉडल से मिले उम्मीदवार के जवाब.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई. यह SafetySettings में हुए उस छोटे से बदलाव के बारे में बताता है जो कम से कम एक जवाब को अनब्लॉक करने के लिए ज़रूरी होगा.

ब्लॉक करने की सेटिंग को, अनुरोध में मौजूद SafetySettings (या एपीआई के डिफ़ॉल्ट SafetySettings) के ज़रिए कॉन्फ़िगर किया जाता है.

safetyFeedback[] object (SafetyFeedback)

कॉन्टेंट फ़िल्टर करने से जुड़ी सुरक्षा से जुड़ा कोई भी सुझाव या राय दिखाता है.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

मॉडल से लौटाया गया आउटपुट टेक्स्ट.

फ़ील्ड
output string

सिर्फ़ आउटपुट के लिए. जनरेट किया गया टेक्स्ट, मॉडल से दिखाया गया.

safetyRatings[] object (SafetyRating)

किसी जवाब की सुरक्षा के लिए रेटिंग.

हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग है.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस TextCompletion में, मॉडल से जनरेट किए गए output के लिए उद्धरण की जानकारी.

इस फ़ील्ड में, output में शामिल किसी भी टेक्स्ट के एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.

JSON के काेड में दिखाना
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

पूरे अनुरोध के लिए सुरक्षा से जुड़ा सुझाव/राय या शिकायत.

अगर सुरक्षा सेटिंग की वजह से इनपुट और/या जवाब का कॉन्टेंट ब्लॉक कर दिया जाता है, तो इस फ़ील्ड में जानकारी अपने-आप भर जाती है. ऐसा हो सकता है कि हर नुकसान पहुंचाने वाली कैटगरी के लिए, SafetyFeedback मौजूद न हो. सुरक्षा के बारे में हर सुझाव, अनुरोध के लिए इस्तेमाल की गई सुरक्षा सेटिंग दिखाएगा. साथ ही, नुकसान की संभावना की सबसे कम संभावना भी दिखाएगा, जिसे कोई नतीजा देने के लिए अनुमति दी जानी चाहिए.

फ़ील्ड
rating object (SafetyRating)

कॉन्टेंट के आधार पर सुरक्षा रेटिंग तय की जाती है.

setting object (SafetySetting)

अनुरोध पर सुरक्षा सेटिंग लागू की गईं.

JSON के काेड में दिखाना
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

मॉडल को प्रॉम्प्ट के तौर पर दिया गया टेक्स्ट.

मॉडल इस TextPrompt का इस्तेमाल करके, टेक्स्ट पूरा जनरेट करेगा.

फ़ील्ड
text string

ज़रूरी है. प्रॉम्प्ट का टेक्स्ट.

JSON के काेड में दिखाना
{
  "text": string
}