PaLM (deprecated)

तरीका: Model.generateText

दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model या TunedModel नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह models/{model} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

प्रॉम्प्ट मिलने पर, मॉडल टेक्स्ट के पूरा होने के बाद एक जवाब जनरेट करेगा, जिसका अनुमान लगाने के बाद यह इनपुट टेक्स्ट पूरा होने के बारे में बताता है.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने वाले यूनीक SafetySetting इंस्टेंस की सूची.

जिसे GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, SafetySettings में दिए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.

stopSequences[] string

वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर बताया गया है, तो एपीआई, स्टॉप सीक्वेंस के पहली बार दिखने पर बंद हो जाएगा. रोकने के क्रम को जवाब के हिस्से के रूप में शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.temperature एट्रिब्यूट से getModel फ़ंक्शन मिला है.

वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.

candidateCount integer

ज़रूरी नहीं. दिए जाने वाले, जनरेट किए गए जवाबों की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इस नीति को सेट नहीं किया जाता है, तो यह Model की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.

topP number

ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.

इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.

टोकन, असाइन की गई क्षमताओं के हिसाब से क्रम में लगाए जाते हैं, ताकि सबसे ज़्यादा संभावना वाले टोकन ही इस्तेमाल किए जा सकें. टॉप-के सैंपलिंग पर विचार करने के लिए, टोकन की ज़्यादा से ज़्यादा संख्या को सीधे तौर पर सीमित किया जाता है, जबकि न्यूक्लियस सैंपलिंग कुल प्रॉबबिलिटी के आधार पर टोकन की संख्या को सीमित करता है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_p एट्रिब्यूट से getModel फ़ंक्शन मिला है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.

टॉप-K सैंपलिंग, topK के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट तौर पर, यह 40 पर सेट होता है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_k एट्रिब्यूट से getModel फ़ंक्शन मिला है.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

तरीका: Model.countTextTokens

किसी टेक्स्ट पर मॉडल का टोकनाइज़र चलाता है और टोकन काउंट दिखाता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} का रूप लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

जवाब का मुख्य भाग

models.countTextTokens से मिला जवाब.

यह prompt के लिए, मॉडल के tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

उन टोकन की संख्या जिनमें model, prompt को टोकन देता है.

हमेशा नकारात्मक.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: Model.generateMessage

दिए गए इनपुट MessagePrompt मॉडल से रिस्पॉन्स जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

पाथ पैरामीटर

model string

ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.

फ़ॉर्मैट: name=models/{model}. यह models/{model} का रूप लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट वाला इनपुट.

प्रॉम्प्ट मिलने पर, मॉडल अपने अनुमान के मुताबिक जानकारी दिखाएगा. इसके लिए, बातचीत का अगला मैसेज दिखाया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है.

वैल्यू [0.0,1.0] से ज़्यादा भी हो सकती है. इसमें ये वैल्यू भी शामिल हैं. 1.0 के करीब की वैल्यू, ज़्यादा अलग-अलग तरह के जवाब देगी. वहीं, 0.0 के करीब की वैल्यू, आम तौर पर इस मॉडल से मिलने वाले चौंकाने वाले जवाब नहीं देगी.

candidateCount integer

ज़रूरी नहीं. दिए जाने वाले जवाब के तौर पर जनरेट किए गए मैसेज की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट होगी.

topP number

ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.

इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.

न्यूक्लियस सैंपलिंग के तहत टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिसकी संभावना का योग कम से कम topP होता है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.

टॉप-K सैंपलिंग, topK के सबसे संभावित टोकन के सेट के हिसाब से काम करती है.

जवाब का मुख्य भाग

मॉडल से मिला रिस्पॉन्स.

इसमें उम्मीदवार के मैसेज और बातचीत का इतिहास, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर शामिल है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
candidates[] object (Message)

मॉडल से उम्मीदवार के जवाब वाले मैसेज.

messages[] object (Message)

बातचीत के इतिहास का इस्तेमाल, मॉडल करता है.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट को फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

तरीका: Model.countMessageTokens

स्ट्रिंग पर मॉडल का टोकनाइज़र चलाता है और टोकन काउंट दिखाता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.

यह नाम, models.list तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.

फ़ॉर्मैट: models/{model} यह models/{model} का रूप लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
prompt object (MessagePrompt)

ज़रूरी है. वह प्रॉम्प्ट जिसकी टोकन संख्या दिखाई जानी है.

जवाब का मुख्य भाग

models.countMessageTokens से मिला जवाब.

यह prompt के लिए, मॉडल के tokenCount दिखाता है.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
tokenCount integer

उन टोकन की संख्या जिनमें model, prompt को टोकन देता है.

हमेशा नकारात्मक.

JSON के काेड में दिखाना
{
  "tokenCount": integer
}

तरीका: Model.embedText

दिए गए इनपुट मैसेज के मॉडल से एम्बेडिंग जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

पाथ पैरामीटर

model string

ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम. यह models/{model} का रूप लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
text string

ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.

जवाब का मुख्य भाग

EmbedTextRequest के लिए रिस्पॉन्स.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embedding object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.

JSON के काेड में दिखाना
{
  "embedding": {
    object (Embedding)
  }
}

तरीका: Model.batchEmbedText

सिंक्रोनस कॉल में दिए गए मॉडल के इनपुट टेक्स्ट से, एक से ज़्यादा एम्बेड करने की सुविधा जनरेट करती है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

पाथ पैरामीटर

model string

ज़रूरी है. एम्बेड करने की प्रोसेस जनरेट करने में इस्तेमाल करने के लिए Model का नाम. उदाहरण: Model/embedding-gecko-001 यह models/{model} का फ़ॉर्म लेता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
texts[] string

ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एक एम्बेडिंग में बदल देगा. मौजूदा सीमा 100 मैसेज की है. इसके बाद, गड़बड़ी का मैसेज दिखाया जाएगा.

requests[] object (EmbedTextRequest)

ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts या requests में से सिर्फ़ एक को सेट किया जा सकता है.

जवाब का मुख्य भाग

EmbedTextRequest के लिए रिस्पॉन्स.

अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.

फ़ील्ड
embeddings[] object (Embedding)

सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.

JSON के काेड में दिखाना
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

मॉडल से टेक्स्ट एम्बेड करने के लिए अनुरोध करें.

JSON के काेड में दिखाना
{
  "model": string,
  "text": string
}
फ़ील्ड
model string

ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम.

text string

ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.

तरीका: TunerModels.generateText

दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.

एंडपॉइंट

पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

पाथ पैरामीटर

model string

ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model या TunedModel नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह tunedModels/{tunedmodel} फ़ॉर्मैट में होता है.

अनुरोध का मुख्य भाग

अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:

फ़ील्ड
prompt object (TextPrompt)

ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.

प्रॉम्प्ट मिलने पर, मॉडल टेक्स्ट के पूरा होने के बाद एक जवाब जनरेट करेगा, जिसका अनुमान लगाने के बाद यह इनपुट टेक्स्ट पूरा होने के बारे में बताता है.

safetySettings[] object (SafetySetting)

ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने वाले यूनीक SafetySetting इंस्टेंस की सूची.

जिसे GenerateTextRequest.prompt और GenerateTextResponse.candidates पर लागू किया जाएगा. हर SafetyCategory टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, SafetySettings में दिए गए हर SafetyCategory के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory के लिए कोई SafetySetting नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.

stopSequences[] string

वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर बताया गया है, तो एपीआई, स्टॉप सीक्वेंस के पहली बार दिखने पर बंद हो जाएगा. रोकने के क्रम को जवाब के हिस्से के रूप में शामिल नहीं किया जाएगा.

temperature number

ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.temperature एट्रिब्यूट से getModel फ़ंक्शन मिला है.

वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.

candidateCount integer

ज़रूरी नहीं. दिए जाने वाले, जनरेट किए गए जवाबों की संख्या.

यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.

maxOutputTokens integer

ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

अगर इस नीति को सेट नहीं किया जाता है, तो यह Model की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.

topP number

ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.

इस मॉडल में Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले तरीकों का इस्तेमाल किया गया है.

टोकन, असाइन की गई क्षमताओं के हिसाब से क्रम में लगाए जाते हैं, ताकि सबसे ज़्यादा संभावना वाले टोकन ही इस्तेमाल किए जा सकें. टॉप-के सैंपलिंग पर विचार करने के लिए, टोकन की ज़्यादा से ज़्यादा संख्या को सीधे तौर पर सीमित किया जाता है, जबकि न्यूक्लियस सैंपलिंग कुल प्रॉबबिलिटी के आधार पर टोकन की संख्या को सीमित करता है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_p एट्रिब्यूट से getModel फ़ंक्शन मिला है.

topK integer

ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.

यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.

टॉप-K सैंपलिंग, topK के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट तौर पर, यह 40 पर सेट होता है.

ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model की Model.top_k एट्रिब्यूट से getModel फ़ंक्शन मिला है.

जवाब का मुख्य भाग

कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse का एक इंस्टेंस शामिल किया जाता है.

ContentFilter

किसी एक अनुरोध को प्रोसेस करने से जुड़ा कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.

ContentFilter में वजह और इस्तेमाल करने के लिए एक वैकल्पिक स्ट्रिंग होती है. इसकी वजह साफ़ तौर पर नहीं बताई गई हो सकती है.

JSON के काेड में दिखाना
{
  "reason": enum (BlockedReason),
  "message": string
}
फ़ील्ड
reason enum (BlockedReason)

अनुरोध को प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक करने की वजह.

message string

यह स्ट्रिंग, फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देती है.

BlockedReason

कॉन्टेंट ब्लॉक किए जाने की वजहों की सूची.

Enums
BLOCKED_REASON_UNSPECIFIED ब्लॉक किए जाने की वजह नहीं बताई गई.
SAFETY सुरक्षा सेटिंग की वजह से, कॉन्टेंट को ब्लॉक किया गया है.
OTHER कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन उसकी वजह साफ़ नहीं है.

एम्बेड करना

एम्बेड करने की जानकारी देने वाले फ़्लोट की सूची.

JSON के काेड में दिखाना
{
  "value": [
    number
  ]
}
फ़ील्ड
value[] number

एम्बेड करने वाली वैल्यू.

मैसेज

स्ट्रक्चर्ड टेक्स्ट की बेस यूनिट.

Message में, Message का author और content शामिल होता है.

author का इस्तेमाल मैसेज को टैग करने के लिए तब किया जाता है, जब उन्हें मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.

JSON के काेड में दिखाना
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
फ़ील्ड
author string

ज़रूरी नहीं. इस मैसेज का लेखक.

यह इस मैसेज के कॉन्टेंट को टैग करने के लिए, एक कुंजी के तौर पर काम करता है. ऐसा तब होता है, जब मॉडल में टेक्स्ट के रूप में फ़ीड दिया जाता है.

लेखक, अक्षर और अंक मिलाकर कोई भी स्ट्रिंग हो सकता है.

content string

ज़रूरी है. स्ट्रक्चर्ड Message का टेक्स्ट कॉन्टेंट.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस Message में, मॉडल से जनरेट किए गए content के लिए उद्धरण की जानकारी.

अगर इस Message को मॉडल से आउटपुट के तौर पर जनरेट किया गया था, तो content में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भरी जा सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.

MessagePrompt

मॉडल को प्रॉम्प्ट के तौर पर पास किए गए सभी स्ट्रक्चर्ड इनपुट टेक्स्ट.

MessagePrompt में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के लिए कॉन्टेक्स्ट उपलब्ध कराता है. साथ ही, इसमें उपयोगकर्ता के इनपुट/मॉडल आउटपुट मैसेज पेयर के ऐसे उदाहरण होते हैं जो मॉडल को अलग-अलग तरीके से जवाब देने के लिए ज़रूरी बनाते हैं. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची शामिल होती है.

JSON के काेड में दिखाना
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
फ़ील्ड
context string

ज़रूरी नहीं. ऐसा टेक्स्ट जो जवाब देने के लिए, मॉडल को पहले दिया जाना चाहिए.

अगर वैल्यू खाली नहीं है, तो यह context, examples और messages से पहले वाले मॉडल को दिया जाएगा. context का इस्तेमाल करते समय, पक्का करें कि इसे जारी रखने के लिए, इसे हर अनुरोध के साथ उपलब्ध कराया जाए.

यह फ़ील्ड, मॉडल के लिए आपके प्रॉम्प्ट की जानकारी हो सकती है. इससे, आपको कॉन्टेक्स्ट देने और जवाबों को गाइड करने में मदद मिलती है. उदाहरण: "वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "कथन को देखते हुए, भावना को खुश, दुखी या सामान्य के तौर पर मार्क करें."

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है और इनपुट का अनुरोध छोटा कर दिया गया है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास के मुकाबले ज़्यादा अहमियत दी जाएगी.

examples[] object (Example)

ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.

इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स शामिल है जिसे मॉडल को एम्युलेट करना चाहिए.

इन examples को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, messages के इतिहास के मुकाबले, इन्हें प्राथमिकता दी जाती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी. आइटम को examples से पहले messages से हटा दिया जाएगा.

messages[] object (Message)

ज़रूरी है. बातचीत के इतिहास का स्नैपशॉट, जो समय के हिसाब से क्रम में लगाया गया है.

दो लेखकों के बीच बारी-बारी से बदलता है.

अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी: सबसे पुराने आइटम messages से हटा दिए जाएंगे.

उदाहरण

इनपुट/आउटपुट का उदाहरण, जिसका इस्तेमाल मॉडल को निर्देश देने के लिए किया जाता है.

इससे पता चलता है कि मॉडल को जवाब कैसे देना चाहिए या अपना रिस्पॉन्स किस तरह फ़ॉर्मैट करना चाहिए.

JSON के काेड में दिखाना
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
फ़ील्ड
input object (Message)

ज़रूरी है. उपयोगकर्ता के इनपुट Message का उदाहरण.

output object (Message)

ज़रूरी है. दिए गए इनपुट के हिसाब से मॉडल को क्या आउटपुट करना चाहिए, इसका उदाहरण.

GenerateTextResponse

मॉडल से मिला जवाब, जिसमें उम्मीदवार के जवाब भी शामिल होते हैं.

JSON के काेड में दिखाना
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
फ़ील्ड
candidates[] object (TextCompletion)

मॉडल से उम्मीदवार के जवाब.

filters[] object (ContentFilter)

प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट को फ़िल्टर करने वाले मेटाडेटा का सेट.

इससे पता चलता है कि किस SafetyCategory(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई. यह SafetySettings में हुए उस छोटे से बदलाव के बारे में बताता है जो कम से कम एक जवाब को अनब्लॉक करने के लिए ज़रूरी होगा.

ब्लॉक करने की सेटिंग को, अनुरोध में मौजूद SafetySettings (या एपीआई के डिफ़ॉल्ट SafetySettings) की मदद से कॉन्फ़िगर किया जाता है.

safetyFeedback[] object (SafetyFeedback)

कॉन्टेंट को फ़िल्टर करने की सुविधा से जुड़ा कोई सुरक्षा सुझाव दिखाता है.

TextCompletion

मॉडल से लौटाया गया आउटपुट टेक्स्ट.

JSON के काेड में दिखाना
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
फ़ील्ड
output string

सिर्फ़ आउटपुट के लिए. जनरेट किया गया टेक्स्ट, मॉडल से दिखाया गया.

safetyRatings[] object (SafetyRating)

किसी जवाब की सुरक्षा के लिए रेटिंग.

हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग है.

citationMetadata object (CitationMetadata)

सिर्फ़ आउटपुट के लिए. इस TextCompletion में, मॉडल से जनरेट किए गए output के लिए उद्धरण की जानकारी.

इस फ़ील्ड में, output में शामिल किसी भी टेक्स्ट के एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.

SafetyFeedback

पूरे अनुरोध के लिए, सुरक्षा से जुड़े सुझाव, शिकायत या राय.

अगर सुरक्षा सेटिंग की वजह से इनपुट और/या जवाब का कॉन्टेंट ब्लॉक कर दिया जाता है, तो इस फ़ील्ड में जानकारी अपने-आप भर जाती है. हो सकता है कि हर HarmCategory के लिए Safetyसुझाव मौजूद न हो. सुरक्षा के बारे में हर सुझाव, अनुरोध के लिए इस्तेमाल की गई सुरक्षा सेटिंग दिखाएगा. साथ ही, नुकसान की संभावना की सबसे कम संभावना भी दिखाएगा, जिसे कोई नतीजा देने के लिए अनुमति दी जानी चाहिए.

JSON के काेड में दिखाना
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
फ़ील्ड
rating object (SafetyRating)

कॉन्टेंट से मिली सुरक्षा रेटिंग का आकलन किया गया.

setting object (SafetySetting)

अनुरोध पर सुरक्षा सेटिंग लागू की गईं.

TextPrompt

मॉडल को प्रॉम्प्ट के तौर पर दिया गया टेक्स्ट.

मॉडल इस TextPrompt का इस्तेमाल करके, टेक्स्ट पूरा जनरेट करेगा.

JSON के काेड में दिखाना
{
  "text": string
}
फ़ील्ड
text string

ज़रूरी है. प्रॉम्प्ट का टेक्स्ट.