PaLM (decommissioned)

तरीका: models.generateText

इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. Model या TunedModel का नाम, जिसका इस्तेमाल पूरा होने की जानकारी जनरेट करने के लिए किया जाएगा. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

किसी प्रॉम्प्ट के आधार पर, मॉडल टेक्स्ट पूरा करने के लिए एक जवाब जनरेट करेगा.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting इंस्टेंस की सूची.

GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. एपीआई, उन सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग से तय किए गए थ्रेशोल्ड को पूरा नहीं करते. यह सूची, safetySettings में बताए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दी गई किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए सुरक्षा की डिफ़ॉल्ट सेटिंग का इस्तेमाल करेगा. टेक्स्ट सेवा में, नुकसान पहुंचाने वाली कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS का इस्तेमाल किया जा सकता है.

stopSequences[] string

वर्णों के क्रम का सेट (ज़्यादा से ज़्यादा पांच), जो आउटपुट जनरेशन को रोक देगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.temperature एट्रिब्यूट देखें.

वैल्यू [0.0,1.0] के बीच हो सकती हैं. 1.0 के करीब की वैल्यू से, अलग-अलग और क्रिएटिव जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से सीधे जवाब मिलेंगे.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.

यह वैल्यू, [1, 8] के बीच की होनी चाहिए. अगर यह सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार में शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से Model स्पेसिफ़िकेशन में बताई गई outputTokenLimit पर सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.top_p एट्रिब्यूट देखें.

topK integer

ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.top_k एट्रिब्यूट देखें.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

तरीका: models.countTextTokens

यह किसी टेक्स्ट पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

जवाब का मुख्य भाग

models.countTextTokens से मिला जवाब.

यह prompt के लिए, मॉडल का tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

model, prompt को टोकन में बदलता है. prompt को टोकन में बदलने पर, टोकन की संख्या कितनी होगी.

यह हमेशा ज़ीरो से ज़्यादा होना चाहिए.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: models.generateMessage

किसी इनपुट MessagePrompt के आधार पर, मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

पाथ पैरामीटर

model string

ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.

फ़ॉर्मैट: name=models/{model}. यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट इनपुट.

प्रॉम्प्ट मिलने पर, मॉडल यह अनुमान लगाएगा कि बातचीत में अगला मैसेज क्या होगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है.

वैल्यू [0.0,1.0] से ज़्यादा हो सकती हैं. 1.0 के करीब की वैल्यू से, अलग-अलग तरह के जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से कम चौंकाने वाले जवाब मिलेंगे.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाब वाले मैसेज की संख्या.

यह वैल्यू, [1, 8] के बीच होनी चाहिए. अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

न्यूक्लियस सैंपलिंग में, टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिनकी संभावना का योग कम से कम topP होता है.

topK integer

ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है.

जवाब का मुख्य भाग

मॉडल का जवाब.

इसमें, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर, उम्मीदवार के मैसेज और बातचीत का इतिहास शामिल होता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
candidates[] object (Message)

मॉडल से उम्मीदवार के जवाब के मैसेज.

messages[] object (Message)

मॉडल के इस्तेमाल की गई बातचीत का इतिहास.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory ने इस जवाब से किसी कैंडिडेट को ब्लॉक किया, ब्लॉक करने के लिए सबसे कम HarmProbability क्या था, और उस कैटगरी के लिए HarmThreshold की सेटिंग क्या है.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

तरीका: models.countMessageTokens

यह किसी स्ट्रिंग पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. वह प्रॉम्प्ट जिसका टोकन की संख्या दिखाना है.

जवाब का मुख्य भाग

models.countMessageTokens से मिला जवाब.

यह prompt के लिए, मॉडल का tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

model, prompt को टोकन में बदलता है. prompt को टोकन में बदलने पर, टोकन की संख्या कितनी होगी.

यह हमेशा ज़ीरो से ज़्यादा होना चाहिए.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: models.embedText

किसी इनपुट मैसेज के लिए, मॉडल से एम्बेडिंग जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है. यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
text string

ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.

जवाब का मुख्य भाग

EmbedTextRequest का जवाब.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embedding object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किया गया एम्बेड.

JSON के काेड में दिखाना
{
  "embedding": {
    object (Embedding)
  }
}

तरीका: models.batchEmbedText

सिंक्रोनस कॉल में, मॉडल के दिए गए इनपुट टेक्स्ट से कई एम्बेड जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

पाथ पैरामीटर

model string

ज़रूरी है. एम्बेड करने के लिए इस्तेमाल किए जाने वाले Model का नाम. उदाहरण: models/embedding-gecko-001 यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
texts[] string

ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिन्हें मॉडल एम्बेडिंग में बदल देगा. फ़िलहाल, एक बार में 100 टेक्स्ट भेजे जा सकते हैं. इससे ज़्यादा टेक्स्ट भेजने पर, गड़बड़ी का मैसेज दिखेगा.

requests[] object (EmbedTextRequest)

ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts या requests में से सिर्फ़ एक को सेट किया जा सकता है.

जवाब का मुख्य भाग

EmbedTextRequest का जवाब.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embeddings[] object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किए गए एम्बेड.

JSON के काेड में दिखाना
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

मॉडल से टेक्स्ट एम्बेड करने का अनुरोध करें.

फ़ील्ड
model string

ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है.

text string

ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.

JSON के काेड में दिखाना
{
  "model": string,
  "text": string
}

तरीका: tunedModels.generateText

इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. Model या TunedModel का नाम, जिसका इस्तेमाल पूरा होने की जानकारी जनरेट करने के लिए किया जाएगा. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह tunedModels/{tunedmodel} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

किसी प्रॉम्प्ट के आधार पर, मॉडल टेक्स्ट पूरा करने के लिए एक जवाब जनरेट करेगा.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting इंस्टेंस की सूची.

GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. एपीआई, उन सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग से तय किए गए थ्रेशोल्ड को पूरा नहीं करते. यह सूची, safetySettings में बताए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दी गई किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए सुरक्षा की डिफ़ॉल्ट सेटिंग का इस्तेमाल करेगा. टेक्स्ट सेवा में, नुकसान पहुंचाने वाली कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS का इस्तेमाल किया जा सकता है.

stopSequences[] string

वर्णों के क्रम का सेट (ज़्यादा से ज़्यादा पांच), जो आउटपुट जनरेशन को रोक देगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.temperature एट्रिब्यूट देखें.

वैल्यू [0.0,1.0] के बीच हो सकती हैं. 1.0 के करीब की वैल्यू से, अलग-अलग और क्रिएटिव जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से सीधे जवाब मिलेंगे.

candidateCount integer

ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.

यह वैल्यू, [1, 8] के बीच की होनी चाहिए. अगर यह सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार में शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से Model स्पेसिफ़िकेशन में बताई गई outputTokenLimit पर सेट हो जाएगा.

topP number

ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.top_p एट्रिब्यूट देखें.

topK integer

ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.

टॉप-k सैंपलिंग में, topK सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.

ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel फ़ंक्शन से मिली Model की Model.top_k एट्रिब्यूट देखें.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

ContentFilter

किसी एक अनुरोध को प्रोसेस करने से जुड़ा, कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.

ContentFilter में एक वजह और एक वैकल्पिक सहायक स्ट्रिंग होती है. ऐसा हो सकता है कि इसकी वजह न बताई गई हो.

फ़ील्ड
reason enum (BlockedReason)

अनुरोध प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक किए जाने की वजह.

message string

फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देने वाली स्ट्रिंग.

JSON के काेड में दिखाना
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

कॉन्टेंट को ब्लॉक किए जाने की वजहों की सूची.

Enums
BLOCKED_REASON_UNSPECIFIED ब्लॉक करने की वजह नहीं बताई गई.
SAFETY सुरक्षा सेटिंग की वजह से कॉन्टेंट को ब्लॉक किया गया.
OTHER कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन इसकी वजह नहीं बताई गई है.

एम्बेड करना

एम्बेड करने की जानकारी देने वाली फ़्लोट की सूची.

फ़ील्ड
value[] number

एम्बेड की गई वैल्यू.

JSON के काेड में दिखाना
{
  "value": [
    number
  ]
}

मैसेज

स्ट्रक्चर्ड टेक्स्ट की बुनियादी इकाई.

Message में author और Message का content शामिल होता है.

author का इस्तेमाल, मैसेज को टेक्स्ट के तौर पर मॉडल में फ़ीड करते समय, उन्हें टैग करने के लिए किया जाता है.

फ़ील्ड
author string

ज़रूरी नहीं. इस मैसेज का लेखक.

यह इस मैसेज के कॉन्टेंट को टैग करने के लिए एक कुंजी के तौर पर काम करता है. ऐसा तब होता है, जब इस मैसेज को मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.

लेखक के तौर पर, अक्षर और अंकों वाली कोई भी स्ट्रिंग इस्तेमाल की जा सकती है.

content string

ज़रूरी है. स्ट्रक्चर्ड Message का टेक्स्ट कॉन्टेंट.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस Message में, मॉडल से जनरेट किए गए content के लिए, कोटेशन की जानकारी.

अगर यह Message मॉडल से आउटपुट के तौर पर जनरेट हुआ था, तो इस फ़ील्ड में content में शामिल किसी भी टेक्स्ट के लिए एट्रिब्यूशन की जानकारी अपने-आप भर सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.

JSON के काेड में दिखाना
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

मॉडल को प्रॉम्प्ट के तौर पर दिया गया, स्ट्रक्चर्ड इनपुट टेक्स्ट.

MessagePrompt में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के कॉन्टेक्स्ट के साथ-साथ उपयोगकर्ता के इनपुट/मॉडल के आउटपुट मैसेज के जोड़े के उदाहरण देता है. इन उदाहरणों से मॉडल को अलग-अलग तरीकों से जवाब देने में मदद मिलती है. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची होती है, जो उपयोगकर्ता और मॉडल के बीच बातचीत के अलग-अलग चरणों को दिखाती है.

फ़ील्ड
context string

ज़रूरी नहीं. जवाब देने के लिए, मॉडल को सबसे पहले यह टेक्स्ट दिया जाना चाहिए.

अगर यह फ़ील्ड खाली नहीं है, तो context को examples और messages से पहले मॉडल को दिया जाएगा. context का इस्तेमाल करते समय, हर अनुरोध के साथ इसे ज़रूर दें, ताकि अनुरोधों को लगातार भेजा जा सके.

इस फ़ील्ड में, मॉडल के लिए प्रॉम्प्ट की जानकारी दी जा सकती है. इससे, कॉन्टेक्स्ट देने और जवाबों को दिशा देने में मदद मिलती है. उदाहरण: "इस वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "इस वाक्य के हिसाब से, सेंटीमेंट को खुश, उदास या सामान्य के तौर पर बांटें."

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा हो जाता है और इनपुट का अनुरोध छोटा कर दिया जाता है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास से ज़्यादा प्राथमिकता दी जाएगी.

examples[] object (Example)

ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.

इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स, दोनों शामिल होते हैं जिसे मॉडल को एमुलेट करना चाहिए.

इन examples को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, इनका प्राथमिकता messages में मौजूद इतिहास से ज़्यादा होती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा हो जाता है, तो इनपुट को छोटा कर दिया जाएगा. examples से पहले, messages से आइटम हटा दिए जाएंगे.

messages[] object (Message)

ज़रूरी है. हाल ही की बातचीत के इतिहास का स्नैपशॉट, जिसे समय के हिसाब से क्रम में लगाया गया है.

दो लेखकों के बीच बारी-बारी से टर्न लेता है.

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट को छोटा कर दिया जाएगा: messages से सबसे पुराने आइटम हटा दिए जाएंगे.

JSON के काेड में दिखाना
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

उदाहरण

मॉडल को निर्देश देने के लिए इस्तेमाल किया जाने वाला इनपुट/आउटपुट का उदाहरण.

इससे पता चलता है कि मॉडल को किस तरह जवाब देना चाहिए या अपने जवाब को कैसे फ़ॉर्मैट करना चाहिए.

फ़ील्ड
input object (Message)

ज़रूरी है. उपयोगकर्ता से मिले इनपुट Message का उदाहरण.

output object (Message)

ज़रूरी है. इनपुट के हिसाब से, मॉडल का आउटपुट क्या होना चाहिए, इसका उदाहरण.

JSON के काेड में दिखाना
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

मॉडल का जवाब, जिसमें उम्मीदवार के पूरे होने की जानकारी भी शामिल है.

फ़ील्ड
candidates[] object (TextCompletion)

मॉडल से मिले उम्मीदवार के जवाब.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory ने इस जवाब से किसी कैंडिडेट को ब्लॉक किया, ब्लॉक करने के लिए सबसे कम HarmProbability क्या था, और उस कैटगरी के लिए HarmThreshold की सेटिंग क्या है. इससे पता चलता है कि SafetySettings में कितना कम बदलाव किया जाना चाहिए, ताकि कम से कम एक जवाब अनब्लॉक किया जा सके.

ब्लॉकिंग को अनुरोध में मौजूद SafetySettings या एपीआई के डिफ़ॉल्ट SafetySettings से कॉन्फ़िगर किया जाता है.

safetyFeedback[] object (SafetyFeedback)

कॉन्टेंट फ़िल्टर करने से जुड़ी सुरक्षा से जुड़ा कोई भी सुझाव या राय दिखाता है.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

मॉडल से मिला आउटपुट टेक्स्ट.

फ़ील्ड
output string

सिर्फ़ आउटपुट के लिए. मॉडल से जनरेट किया गया टेक्स्ट.

safetyRatings[] object (SafetyRating)

किसी जवाब की सुरक्षा के लिए रेटिंग.

हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग दी जा सकती है.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस TextCompletion में, मॉडल से जनरेट किए गए output के लिए, कोटेशन की जानकारी.

output में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.

JSON के काेड में दिखाना
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

पूरे अनुरोध के लिए सुरक्षा से जुड़ा सुझाव/राय या शिकायत.

सुरक्षा सेटिंग की वजह से, इनपुट और/या रिस्पॉन्स में मौजूद कॉन्टेंट को ब्लॉक करने पर, यह फ़ील्ड अपने-आप भर जाता है. ऐसा हो सकता है कि हर नुकसान पहुंचाने वाली कैटगरी के लिए, SafetyFeedback मौजूद न हो. हर SafetyFeedback में, अनुरोध में इस्तेमाल की गई सुरक्षा सेटिंग के साथ-साथ, नतीजा दिखाने के लिए, नुकसान की सबसे कम संभावना की अनुमति दी जानी चाहिए.

फ़ील्ड
rating object (SafetyRating)

कॉन्टेंट के आधार पर सुरक्षा रेटिंग तय की जाती है.

setting object (SafetySetting)

अनुरोध पर लागू की गई सुरक्षा सेटिंग.

JSON के काेड में दिखाना
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

प्रॉम्प्ट के तौर पर मॉडल को दिया गया टेक्स्ट.

मॉडल, टेक्स्ट पूरा करने के लिए इस टेक्स्ट प्रॉम्प्ट का इस्तेमाल करेगा.

फ़ील्ड
text string

ज़रूरी है. प्रॉम्प्ट का टेक्स्ट.

JSON के काेड में दिखाना
{
  "text": string
}