तरीका: models.generateText
दिए गए मॉडल से, इनपुट मैसेज जनरेट करता है.
एंडपॉइंट
पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextपाथ पैरामीटर
model
string
ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model
या TunedModel
नाम. उदाहरण: मॉडल/text-bison-001}{Models/sentence-Translator-u3b7m यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
प्रॉम्प्ट मिलने पर, मॉडल एक Textपूरा जवाब जनरेट करेगा, जिसका अनुमान लगाया गया है कि इनपुट टेक्स्ट पूरा हो गया है.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting
इंस्टेंस की सूची.
जिसे GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, safetySettings में बताए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory
के लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.
stopSequences[]
string
वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.temperature
एट्रिब्यूट देखें.
वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.
यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इस नीति को सेट नहीं किया जाता है, तो यह Model
की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.
topP
number
ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_p
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-K सैंपलिंग, topK
के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_k
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
तरीका: models.countTextTokens
यह किसी टेक्स्ट पर मॉडल का टॉकेटर चलाता है और टोक़न की संख्या दिखाता है.
एंडपॉइंट
पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensपाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
जवाब का मुख्य भाग
models.countTextTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल का tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
उन टोकन की संख्या जिनमें model
, prompt
को टोकन देता है.
हमेशा नकारात्मक.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: models.generateMessage
दिए गए इनपुट MessagePrompt
मॉडल से रिस्पॉन्स जनरेट करता है.
एंडपॉइंट
पोस्ट करें https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageपाथ पैरामीटर
model
string
ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.
फ़ॉर्मैट: name=models/{model}
. यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट वाला इनपुट.
प्रॉम्प्ट मिलने पर, मॉडल यह अनुमान लगाएगा कि बातचीत में अगला मैसेज क्या होगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है.
वैल्यू [0.0,1.0]
से ज़्यादा भी हो सकती है. इसमें ये वैल्यू भी शामिल हैं. 1.0
के करीब की वैल्यू से, अलग-अलग तरह के जवाब मिलेंगे. वहीं, 0.0
के करीब की वैल्यू से, आम तौर पर मॉडल से कम चौंकाने वाले जवाब मिलेंगे.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाब वाले मैसेज की संख्या.
यह वैल्यू [1, 8]
के बीच होनी चाहिए. अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से 1
पर सेट हो जाएगा.
topP
number
ज़रूरी नहीं. सैंपल बनाते समय, टोकन की कुल कितनी संभावना पर विचार किया जाना चाहिए.
यह मॉडल, Top-k और न्यूक्लियस सैंपलिंग के मिले-जुले रूप का इस्तेमाल करता है.
न्यूक्लियस सैंपलिंग में, टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिनकी संभावना का योग कम से कम topP
होता है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-k सैंपलिंग में, topK
सबसे संभावित टोकन का सेट शामिल होता है.
जवाब का मुख्य भाग
मॉडल का जवाब.
इसमें उम्मीदवार के मैसेज और बातचीत का इतिहास, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर शामिल है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
candidates[]
object (Message
)
मॉडल से उम्मीदवार के जवाब के मैसेज.
messages[]
object (Message
)
बातचीत के इतिहास का इस्तेमाल, मॉडल करता है.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability
जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
तरीका: models.countMessageTokens
यह किसी स्ट्रिंग पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.
एंडपॉइंट
पोस्ट करना https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensपाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के इस्तेमाल के लिए एक आईडी के रूप में काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. वह प्रॉम्प्ट जिसका टोकन की संख्या दिखाना है.
जवाब का मुख्य भाग
models.countMessageTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल के tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
model
, prompt
को टोकन में बदलता है. prompt
को टोकन में बदलने पर, टोकन की संख्या.
हमेशा नकारात्मक.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: Model.embedText
दिए गए इनपुट मैसेज के मॉडल से एम्बेडिंग जनरेट करता है.
एंडपॉइंट
पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextपाथ पैरामीटर
model
string
ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है. यह models/{model}
का रूप लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
text
string
ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.
जवाब का मुख्य भाग
EmbedTextRequest के लिए रिस्पॉन्स.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
embedding
object (Embedding
)
सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से एम्बेड की गई इमेज.
JSON के काेड में दिखाना |
---|
{
"embedding": {
object ( |
तरीका: models.batchEmbedText
सिंक्रोनस कॉल में दिए गए मॉडल के इनपुट टेक्स्ट से, एक से ज़्यादा एम्बेड करने की सुविधा जनरेट करती है.
एंडपॉइंट
पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextपाथ पैरामीटर
model
string
ज़रूरी है. एम्बेड करने की प्रोसेस जनरेट करने में इस्तेमाल करने के लिए Model
का नाम. उदाहरण: Model/embedding-gecko-001 यह models/{model}
का फ़ॉर्म लेता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य हिस्से में, यहां दिए गए स्ट्रक्चर का डेटा शामिल होता है:
texts[]
string
ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिन्हें मॉडल एम्बेडिंग में बदल देगा. मौजूदा सीमा 100 मैसेज की है. इसके बाद, गड़बड़ी का मैसेज दिखाया जाएगा.
requests[]
object (EmbedTextRequest
)
ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts
या requests
में से सिर्फ़ एक को सेट किया जा सकता है.
जवाब का मुख्य भाग
EmbedTextRequest के लिए रिस्पॉन्स.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
embeddings[]
object (Embedding
)
सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किए गए एम्बेड.
JSON के काेड में दिखाना |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
मॉडल से टेक्स्ट एम्बेड करने के लिए अनुरोध करें.
model
string
ज़रूरी है. मॉडल=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करने के लिए मॉडल का नाम.
text
string
ज़रूरी नहीं. वह फ़्री-फ़ॉर्म इनपुट टेक्स्ट जिसे मॉडल एम्बेड करने के लिए इस्तेमाल करेगा.
JSON के काेड में दिखाना |
---|
{ "model": string, "text": string } |
तरीका: TunerModels.generateText
इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.
एंडपॉइंट
पोस्ट https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextपाथ पैरामीटर
model
string
ज़रूरी है. नतीजे जनरेट करने के लिए इस्तेमाल किया जाने वाला Model
या TunedModel
नाम. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह tunedModels/{tunedmodel}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में यह डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
प्रॉम्प्ट मिलने पर, मॉडल एक Textपूरा जवाब जनरेट करेगा, जिसका अनुमान लगाया गया है कि इनपुट टेक्स्ट पूरा हो गया है.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting
इंस्टेंस की सूची.
जिसे GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. यह एपीआई ऐसे सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग के थ्रेशोल्ड को पूरा नहीं कर पाते हैं. यह सूची, safetySettings में बताए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दिए गए किसी SafetyCategory
के लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए डिफ़ॉल्ट सुरक्षा सेटिंग का इस्तेमाल करेगा. नुकसान की कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS, टेक्स्ट सेवा में काम करती हैं.
stopSequences[]
string
वर्ण क्रम (ज़्यादा से ज़्यादा पांच) का सेट, जिसकी वजह से आउटपुट जनरेट होना बंद हो जाएगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट की रैंडमनेस को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.temperature
एट्रिब्यूट देखें.
वैल्यू [0.0,1.0] तक की हो सकती हैं. इसमें ये भी शामिल हैं. वैल्यू का 1.0 के करीब होने पर, ऐसे रिस्पॉन्स मिलेंगे जो अलग-अलग और क्रिएटिव होंगे. वहीं, 0.0 के करीब वैल्यू देने पर, मॉडल से सीधे तौर पर जवाब मिलेगा.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.
यह वैल्यू [1, 8] के बीच होनी चाहिए. अगर यह नीति सेट नहीं है, तो इसकी डिफ़ॉल्ट वैल्यू 1 होगी.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार के साथ जोड़े जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इस नीति को सेट नहीं किया जाता है, तो यह Model
की खास जानकारी में दिए गए आउटपुटTokenLimit पर डिफ़ॉल्ट रूप से लागू होगा.
topP
number
ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा कुल संभावना.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_p
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
topK
integer
ज़रूरी नहीं. सैंपल लेने के दौरान, शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-K सैंपलिंग, topK
के सबसे संभावित टोकन के सेट के हिसाब से काम करती है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.
ध्यान दें: मॉडल के हिसाब से डिफ़ॉल्ट वैल्यू अलग-अलग होती है. देखें कि Model
की Model.top_k
एट्रिब्यूट से getModel
फ़ंक्शन मिला है.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
ContentFilter
किसी एक अनुरोध को प्रोसेस करने से जुड़ा कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.
ContentFilter में वजह और इस्तेमाल करने के लिए एक वैकल्पिक स्ट्रिंग होती है. ऐसा हो सकता है कि इसकी वजह न बताई गई हो.
reason
enum (BlockedReason
)
अनुरोध प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक किए जाने की वजह.
message
string
फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देने वाली स्ट्रिंग.
JSON के काेड में दिखाना |
---|
{
"reason": enum ( |
BlockedReason
कॉन्टेंट को ब्लॉक किए जाने की वजहों की सूची.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ब्लॉक किए जाने की वजह नहीं बताई गई. |
SAFETY |
सुरक्षा सेटिंग के तहत कॉन्टेंट को ब्लॉक किया गया है. |
OTHER |
कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन उसकी वजह साफ़ नहीं है. |
एम्बेड करना
एम्बेड करने की जानकारी देने वाले फ़्लोट की सूची.
value[]
number
एम्बेड करने वाली वैल्यू.
JSON के काेड में दिखाना |
---|
{ "value": [ number ] } |
मैसेज
स्ट्रक्चर्ड टेक्स्ट की बेस यूनिट.
Message
में author
और Message
का content
शामिल होता है.
author
का इस्तेमाल मैसेज को टैग करने के लिए तब किया जाता है, जब उन्हें मॉडल में टेक्स्ट के तौर पर फ़ीड किया जाता है.
content
string
ज़रूरी है. स्ट्रक्चर्ड Message
का टेक्स्ट कॉन्टेंट.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस Message
में, मॉडल से जनरेट किए गए content
के लिए उद्धरण की जानकारी.
अगर इस Message
को मॉडल से आउटपुट के तौर पर जनरेट किया गया था, तो content
में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भरी जा सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.
JSON के काेड में दिखाना |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
मॉडल को प्रॉम्प्ट के तौर पर दिया गया, स्ट्रक्चर्ड इनपुट टेक्स्ट.
MessagePrompt
में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के लिए कॉन्टेक्स्ट उपलब्ध कराता है. साथ ही, इसमें उपयोगकर्ता के इनपुट/मॉडल आउटपुट मैसेज पेयर के ऐसे उदाहरण होते हैं जो मॉडल को अलग-अलग तरीके से जवाब देने के लिए ज़रूरी बनाते हैं. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची शामिल होती है.
context
string
ज़रूरी नहीं. जवाब देने के लिए, मॉडल को सबसे पहले यह टेक्स्ट दिया जाना चाहिए.
अगर वैल्यू खाली नहीं है, तो यह context
, examples
और messages
से पहले वाले मॉडल को दिया जाएगा. context
का इस्तेमाल करते समय, इसे हर अनुरोध के साथ ज़रूर दें, ताकि अनुरोधों को लगातार भेजा जा सके.
यह फ़ील्ड, मॉडल को दिए गए आपके प्रॉम्प्ट के बारे में जानकारी दे सकता है. इससे, आपको कॉन्टेक्स्ट देने और जवाबों को गाइड करने में मदद मिलती है. उदाहरण: "इस वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "इस वाक्य के हिसाब से, सेंटीमेंट को खुश, उदास या सामान्य के तौर पर बांटें."
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है और इनपुट का अनुरोध छोटा कर दिया गया है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास के मुकाबले ज़्यादा अहमियत दी जाएगी.
examples[]
object (Example
)
ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.
इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स शामिल है जिसे मॉडल को एम्युलेट करना चाहिए.
इन examples
को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, messages
के इतिहास के मुकाबले, इन्हें प्राथमिकता दी जाती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी. आइटम को examples
से पहले messages
से हटा दिया जाएगा.
messages[]
object (Message
)
ज़रूरी है. हाल ही की बातचीत के इतिहास का स्नैपशॉट, जिसे समय के हिसाब से क्रम में लगाया गया है.
दो लेखकों के बीच बारी-बारी से स्विच करता है.
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है, तो इनपुट में काट-छांट की जाएगी: सबसे पुराने आइटम messages
से हटा दिए जाएंगे.
उदाहरण
इनपुट/आउटपुट का उदाहरण, जिसका इस्तेमाल मॉडल को निर्देश देने के लिए किया जाता है.
इससे पता चलता है कि मॉडल को किस तरह जवाब देना चाहिए या अपने जवाब को किस तरह फ़ॉर्मैट करना चाहिए.
input
object (Message
)
ज़रूरी है. उपयोगकर्ता के इनपुट Message
का उदाहरण.
output
object (Message
)
ज़रूरी है. दिए गए इनपुट के हिसाब से मॉडल को क्या आउटपुट करना चाहिए, इसका उदाहरण.
GenerateTextResponse
मॉडल से मिला जवाब, जिसमें उम्मीदवार के जवाब भी शामिल होते हैं.
candidates[]
object (TextCompletion
)
मॉडल से मिले उम्मीदवार के जवाब.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
(s) ने इस जवाब से किसी उम्मीदवार को ब्लॉक किया, सबसे कम HarmProbability
जिसने ब्लॉक ट्रिगर किया और उस कैटगरी के लिए HarmThreshold सेटिंग तय की गई. यह SafetySettings
में हुए उस छोटे से बदलाव के बारे में बताता है जो कम से कम एक जवाब को अनब्लॉक करने के लिए ज़रूरी होगा.
ब्लॉक करने की सेटिंग को, अनुरोध में मौजूद SafetySettings
(या एपीआई के डिफ़ॉल्ट SafetySettings
) के ज़रिए कॉन्फ़िगर किया जाता है.
safetyFeedback[]
object (SafetyFeedback
)
कॉन्टेंट फ़िल्टर करने से जुड़ी सुरक्षा से जुड़ा कोई भी सुझाव या राय दिखाता है.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
TextCompletion
मॉडल से लौटाया गया आउटपुट टेक्स्ट.
output
string
सिर्फ़ आउटपुट के लिए. जनरेट किया गया टेक्स्ट, मॉडल से दिखाया गया.
safetyRatings[]
object (SafetyRating
)
किसी जवाब की सुरक्षा के लिए रेटिंग.
हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग है.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस TextCompletion
में, मॉडल से जनरेट किए गए output
के लिए उद्धरण की जानकारी.
इस फ़ील्ड में, output
में शामिल किसी भी टेक्स्ट के एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.
JSON के काेड में दिखाना |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
पूरे अनुरोध के लिए सुरक्षा से जुड़ा सुझाव/राय या शिकायत.
अगर सुरक्षा सेटिंग की वजह से इनपुट और/या जवाब का कॉन्टेंट ब्लॉक कर दिया जाता है, तो इस फ़ील्ड में जानकारी अपने-आप भर जाती है. ऐसा हो सकता है कि हर नुकसान पहुंचाने वाली कैटगरी के लिए, SafetyFeedback मौजूद न हो. सुरक्षा के बारे में हर सुझाव, अनुरोध के लिए इस्तेमाल की गई सुरक्षा सेटिंग दिखाएगा. साथ ही, नुकसान की संभावना की सबसे कम संभावना भी दिखाएगा, जिसे कोई नतीजा देने के लिए अनुमति दी जानी चाहिए.
rating
object (SafetyRating
)
कॉन्टेंट के आधार पर सुरक्षा रेटिंग तय की जाती है.
setting
object (SafetySetting
)
अनुरोध पर सुरक्षा सेटिंग लागू की गईं.
JSON के काेड में दिखाना |
---|
{ "rating": { object ( |