तरीका: models.generateText
इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
पाथ पैरामीटर
model
string
ज़रूरी है. Model
या TunedModel
का नाम, जिसका इस्तेमाल पूरा होने की जानकारी जनरेट करने के लिए किया जाएगा. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
किसी प्रॉम्प्ट के आधार पर, मॉडल टेक्स्ट पूरा करने के लिए एक जवाब जनरेट करेगा.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting
इंस्टेंस की सूची.
GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. एपीआई, उन सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग से तय किए गए थ्रेशोल्ड को पूरा नहीं करते. यह सूची, safetySettings में बताए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दी गई किसी SafetyCategory
के लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए सुरक्षा की डिफ़ॉल्ट सेटिंग का इस्तेमाल करेगा. टेक्स्ट सेवा में, नुकसान पहुंचाने वाली कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS का इस्तेमाल किया जा सकता है.
stopSequences[]
string
वर्णों के क्रम का सेट (ज़्यादा से ज़्यादा पांच), जो आउटपुट जनरेशन को रोक देगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.temperature
एट्रिब्यूट देखें.
वैल्यू [0.0,1.0] के बीच हो सकती हैं. 1.0 के करीब की वैल्यू से, अलग-अलग और क्रिएटिव जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से सीधे जवाब मिलेंगे.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.
यह वैल्यू, [1, 8] के बीच की होनी चाहिए. अगर यह सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार में शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से Model
स्पेसिफ़िकेशन में बताई गई outputTokenLimit पर सेट हो जाएगा.
topP
number
ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.
ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.top_p
एट्रिब्यूट देखें.
topK
integer
ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-k सैंपलिंग में, topK
सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.
ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.top_k
एट्रिब्यूट देखें.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
तरीका: models.countTextTokens
यह किसी टेक्स्ट पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
जवाब का मुख्य भाग
models.countTextTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल का tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
model
, prompt
को टोकन में बदलता है. prompt
को टोकन में बदलने पर, टोकन की संख्या कितनी होगी.
यह हमेशा ज़ीरो से ज़्यादा होना चाहिए.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: models.generateMessage
किसी इनपुट MessagePrompt
के आधार पर, मॉडल से जवाब जनरेट करता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
पाथ पैरामीटर
model
string
ज़रूरी है. इस्तेमाल किए जाने वाले मॉडल का नाम.
फ़ॉर्मैट: name=models/{model}
. यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया स्ट्रक्चर्ड टेक्स्ट इनपुट.
प्रॉम्प्ट मिलने पर, मॉडल यह अनुमान लगाएगा कि बातचीत में अगला मैसेज क्या होगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है.
वैल्यू [0.0,1.0]
से ज़्यादा हो सकती हैं. 1.0
के करीब की वैल्यू से, अलग-अलग तरह के जवाब मिलेंगे. वहीं, 0.0
के करीब की वैल्यू से, आम तौर पर मॉडल से कम चौंकाने वाले जवाब मिलेंगे.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाब वाले मैसेज की संख्या.
यह वैल्यू, [1, 8]
के बीच होनी चाहिए. अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से 1
पर सेट हो जाएगा.
topP
number
ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
न्यूक्लियस सैंपलिंग में, टोकन के सबसे छोटे सेट को शामिल किया जाता है, जिनकी संभावना का योग कम से कम topP
होता है.
topK
integer
ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-k सैंपलिंग में, topK
सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है.
जवाब का मुख्य भाग
मॉडल का जवाब.
इसमें, समय के हिसाब से क्रम में लगाए गए मैसेज के तौर पर, उम्मीदवार के मैसेज और बातचीत का इतिहास शामिल होता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
candidates[]
object (Message
)
मॉडल से उम्मीदवार के जवाब के मैसेज.
messages[]
object (Message
)
मॉडल के इस्तेमाल की गई बातचीत का इतिहास.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
ने इस जवाब से किसी कैंडिडेट को ब्लॉक किया, ब्लॉक करने के लिए सबसे कम HarmProbability
क्या था, और उस कैटगरी के लिए HarmThreshold की सेटिंग क्या है.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
तरीका: models.countMessageTokens
यह किसी स्ट्रिंग पर मॉडल का टॉकेनेटर चलाता है और टोक़न की संख्या दिखाता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल के संसाधन का नाम. यह मॉडल के लिए आईडी के तौर पर काम करता है.
यह नाम, models.list
तरीके से मिले मॉडल के नाम से मेल खाना चाहिए.
फ़ॉर्मैट: models/{model}
यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
prompt
object (MessagePrompt
)
ज़रूरी है. वह प्रॉम्प्ट जिसका टोकन की संख्या दिखाना है.
जवाब का मुख्य भाग
models.countMessageTokens
से मिला जवाब.
यह prompt
के लिए, मॉडल का tokenCount
दिखाता है.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
tokenCount
integer
model
, prompt
को टोकन में बदलता है. prompt
को टोकन में बदलने पर, टोकन की संख्या कितनी होगी.
यह हमेशा ज़ीरो से ज़्यादा होना चाहिए.
JSON के काेड में दिखाना |
---|
{ "tokenCount": integer } |
तरीका: models.embedText
किसी इनपुट मैसेज के लिए, मॉडल से एम्बेडिंग जनरेट करता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
पाथ पैरामीटर
model
string
ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है. यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
text
string
ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.
तरीका: models.batchEmbedText
सिंक्रोनस कॉल में, मॉडल के दिए गए इनपुट टेक्स्ट से कई एम्बेड जनरेट करता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
पाथ पैरामीटर
model
string
ज़रूरी है. एम्बेड करने के लिए इस्तेमाल किए जाने वाले Model
का नाम. उदाहरण: models/embedding-gecko-001 यह models/{model}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
texts[]
string
ज़रूरी नहीं. फ़्री फ़ॉर्म इनपुट टेक्स्ट, जिन्हें मॉडल एम्बेडिंग में बदल देगा. फ़िलहाल, एक बार में 100 टेक्स्ट भेजे जा सकते हैं. इससे ज़्यादा टेक्स्ट भेजने पर, गड़बड़ी का मैसेज दिखेगा.
requests[]
object (EmbedTextRequest
)
ज़रूरी नहीं. बैच के लिए अनुरोध एम्बेड करें. texts
या requests
में से सिर्फ़ एक को सेट किया जा सकता है.
जवाब का मुख्य भाग
EmbedTextRequest का जवाब.
अगर एपीआई सही से जुड़ जाता है, ताे जवाब के मुख्य भाग में नीचे दिए गए स्ट्रक्चर शामिल होता है.
embeddings[]
object (Embedding
)
सिर्फ़ आउटपुट के लिए. इनपुट टेक्स्ट से जनरेट किए गए एम्बेड.
JSON के काेड में दिखाना |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
मॉडल से टेक्स्ट एम्बेड करने का अनुरोध करें.
model
string
ज़रूरी है. मॉडल का नाम, जिसे model=models/{model} फ़ॉर्मैट के साथ इस्तेमाल करना है.
text
string
ज़रूरी नहीं. फ़्री-फ़ॉर्म इनपुट टेक्स्ट, जिसे मॉडल एम्बेडिंग में बदल देगा.
JSON के काेड में दिखाना |
---|
{ "model": string, "text": string } |
तरीका: tunedModels.generateText
इनपुट मैसेज के आधार पर, मॉडल से जवाब जनरेट करता है.
एंडपॉइंट
पोस्टhttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
पाथ पैरामीटर
model
string
ज़रूरी है. Model
या TunedModel
का नाम, जिसका इस्तेमाल पूरा होने की जानकारी जनरेट करने के लिए किया जाएगा. उदाहरण: models/text-bison-001 tunedModels/sentence-translator-u3b7m यह tunedModels/{tunedmodel}
फ़ॉर्मैट में होता है.
अनुरोध का मुख्य भाग
अनुरोध के मुख्य भाग में, नीचे दिए गए स्ट्रक्चर वाला डेटा होता है:
prompt
object (TextPrompt
)
ज़रूरी है. प्रॉम्प्ट के तौर पर मॉडल को दिया गया फ़्री-फ़ॉर्म इनपुट टेक्स्ट.
किसी प्रॉम्प्ट के आधार पर, मॉडल टेक्स्ट पूरा करने के लिए एक जवाब जनरेट करेगा.
safetySettings[]
object (SafetySetting
)
ज़रूरी नहीं. असुरक्षित कॉन्टेंट को ब्लॉक करने के लिए, यूनीक SafetySetting
इंस्टेंस की सूची.
GenerateTextRequest.prompt
और GenerateTextResponse.candidates
पर लागू किया जाएगा. हर SafetyCategory
टाइप के लिए एक से ज़्यादा सेटिंग नहीं होनी चाहिए. एपीआई, उन सभी प्रॉम्प्ट और रिस्पॉन्स को ब्लॉक कर देगा जो इन सेटिंग से तय किए गए थ्रेशोल्ड को पूरा नहीं करते. यह सूची, safetySettings में बताए गए हर SafetyCategory
के लिए डिफ़ॉल्ट सेटिंग को बदल देती है. अगर सूची में दी गई किसी SafetyCategory
के लिए कोई SafetySetting
नहीं है, तो एपीआई उस कैटगरी के लिए सुरक्षा की डिफ़ॉल्ट सेटिंग का इस्तेमाल करेगा. टेक्स्ट सेवा में, नुकसान पहुंचाने वाली कैटगरी HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS का इस्तेमाल किया जा सकता है.
stopSequences[]
string
वर्णों के क्रम का सेट (ज़्यादा से ज़्यादा पांच), जो आउटपुट जनरेशन को रोक देगा. अगर यह जानकारी दी जाती है, तो एपीआई स्टॉप सीक्वेंस के पहली बार दिखने पर रुक जाएगा. जवाब के हिस्से के तौर पर, स्टॉप सीक्वेंस शामिल नहीं किया जाएगा.
temperature
number
ज़रूरी नहीं. इससे आउटपुट में रैंडमिटी को कंट्रोल किया जाता है. ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.temperature
एट्रिब्यूट देखें.
वैल्यू [0.0,1.0] के बीच हो सकती हैं. 1.0 के करीब की वैल्यू से, अलग-अलग और क्रिएटिव जवाब मिलेंगे. वहीं, 0.0 के करीब की वैल्यू से, आम तौर पर मॉडल से सीधे जवाब मिलेंगे.
candidateCount
integer
ज़रूरी नहीं. जनरेट किए गए जवाबों की संख्या.
यह वैल्यू, [1, 8] के बीच की होनी चाहिए. अगर यह सेट नहीं है, तो यह डिफ़ॉल्ट रूप से 1 पर सेट हो जाएगा.
maxOutputTokens
integer
ज़रूरी नहीं. किसी उम्मीदवार में शामिल किए जाने वाले टोकन की ज़्यादा से ज़्यादा संख्या.
अगर इसे सेट नहीं किया जाता है, तो यह डिफ़ॉल्ट रूप से Model
स्पेसिफ़िकेशन में बताई गई outputTokenLimit पर सेट हो जाएगा.
topP
number
ज़रूरी नहीं. सैंपलिंग के दौरान, टोकन की ज़्यादा से ज़्यादा कुल संभावना.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टोकन को असाइन की गई संभावनाओं के आधार पर क्रम में लगाया जाता है, ताकि सिर्फ़ सबसे सही टोकन का इस्तेमाल किया जा सके. टॉप-k सैंपलिंग, सीधे तौर पर टोकन की ज़्यादा से ज़्यादा संख्या को सीमित करती है. वहीं, न्यूक्लियस सैंपलिंग, कुल संभावना के आधार पर टोकन की संख्या को सीमित करती है.
ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.top_p
एट्रिब्यूट देखें.
topK
integer
ज़रूरी नहीं. सैंपलिंग करते समय, टोकन की ज़्यादा से ज़्यादा संख्या.
यह मॉडल, टॉप-k और न्यूक्लियस सैंपलिंग का इस्तेमाल करता है.
टॉप-k सैंपलिंग में, topK
सबसे संभावित टोकन के सेट को ध्यान में रखा जाता है. डिफ़ॉल्ट रूप से, यह 40 पर सेट होती है.
ध्यान दें: डिफ़ॉल्ट वैल्यू, मॉडल के हिसाब से अलग-अलग होती है. getModel
फ़ंक्शन से मिली Model
की Model.top_k
एट्रिब्यूट देखें.
जवाब का मुख्य भाग
कामयाब रहने पर, जवाब के मुख्य हिस्से में GenerateTextResponse
का एक इंस्टेंस शामिल किया जाता है.
ContentFilter
किसी एक अनुरोध को प्रोसेस करने से जुड़ा, कॉन्टेंट फ़िल्टर करने वाला मेटाडेटा.
ContentFilter में एक वजह और एक वैकल्पिक सहायक स्ट्रिंग होती है. ऐसा हो सकता है कि इसकी वजह न बताई गई हो.
reason
enum (BlockedReason
)
अनुरोध प्रोसेस करने के दौरान, कॉन्टेंट को ब्लॉक किए जाने की वजह.
message
string
फ़िल्टर करने के तरीके के बारे में ज़्यादा जानकारी देने वाली स्ट्रिंग.
JSON के काेड में दिखाना |
---|
{
"reason": enum ( |
BlockedReason
कॉन्टेंट को ब्लॉक किए जाने की वजहों की सूची.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
ब्लॉक करने की वजह नहीं बताई गई. |
SAFETY |
सुरक्षा सेटिंग की वजह से कॉन्टेंट को ब्लॉक किया गया. |
OTHER |
कॉन्टेंट को ब्लॉक कर दिया गया है, लेकिन इसकी वजह नहीं बताई गई है. |
एम्बेड करना
एम्बेड करने की जानकारी देने वाली फ़्लोट की सूची.
value[]
number
एम्बेड की गई वैल्यू.
JSON के काेड में दिखाना |
---|
{ "value": [ number ] } |
मैसेज
स्ट्रक्चर्ड टेक्स्ट की बुनियादी इकाई.
Message
में author
और Message
का content
शामिल होता है.
author
का इस्तेमाल, मैसेज को टेक्स्ट के तौर पर मॉडल में फ़ीड करते समय, उन्हें टैग करने के लिए किया जाता है.
content
string
ज़रूरी है. स्ट्रक्चर्ड Message
का टेक्स्ट कॉन्टेंट.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस Message
में, मॉडल से जनरेट किए गए content
के लिए, कोटेशन की जानकारी.
अगर यह Message
मॉडल से आउटपुट के तौर पर जनरेट हुआ था, तो इस फ़ील्ड में content
में शामिल किसी भी टेक्स्ट के लिए एट्रिब्यूशन की जानकारी अपने-आप भर सकती है. इस फ़ील्ड का इस्तेमाल सिर्फ़ आउटपुट के लिए किया जाता है.
JSON के काेड में दिखाना |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
मॉडल को प्रॉम्प्ट के तौर पर दिया गया, स्ट्रक्चर्ड इनपुट टेक्स्ट.
MessagePrompt
में फ़ील्ड का स्ट्रक्चर्ड सेट होता है, जो बातचीत के कॉन्टेक्स्ट के साथ-साथ उपयोगकर्ता के इनपुट/मॉडल के आउटपुट मैसेज के जोड़े के उदाहरण देता है. इन उदाहरणों से मॉडल को अलग-अलग तरीकों से जवाब देने में मदद मिलती है. साथ ही, इसमें बातचीत का इतिहास या मैसेज की सूची होती है, जो उपयोगकर्ता और मॉडल के बीच बातचीत के अलग-अलग चरणों को दिखाती है.
context
string
ज़रूरी नहीं. जवाब देने के लिए, मॉडल को सबसे पहले यह टेक्स्ट दिया जाना चाहिए.
अगर यह फ़ील्ड खाली नहीं है, तो context
को examples
और messages
से पहले मॉडल को दिया जाएगा. context
का इस्तेमाल करते समय, हर अनुरोध के साथ इसे ज़रूर दें, ताकि अनुरोधों को लगातार भेजा जा सके.
इस फ़ील्ड में, मॉडल के लिए प्रॉम्प्ट की जानकारी दी जा सकती है. इससे, कॉन्टेक्स्ट देने और जवाबों को दिशा देने में मदद मिलती है. उदाहरण: "इस वाक्यांश का अनुवाद अंग्रेज़ी से फ़्रेंच में करें." या "इस वाक्य के हिसाब से, सेंटीमेंट को खुश, उदास या सामान्य के तौर पर बांटें."
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा हो जाता है और इनपुट का अनुरोध छोटा कर दिया जाता है, तो इस फ़ील्ड में शामिल किसी भी चीज़ को मैसेज के इतिहास से ज़्यादा प्राथमिकता दी जाएगी.
examples[]
object (Example
)
ज़रूरी नहीं. मॉडल को क्या जनरेट करना चाहिए, इसके उदाहरण.
इसमें उपयोगकर्ता का इनपुट और वह रिस्पॉन्स, दोनों शामिल होते हैं जिसे मॉडल को एमुलेट करना चाहिए.
इन examples
को बातचीत के मैसेज की तरह ही माना जाता है. हालांकि, इनका प्राथमिकता messages
में मौजूद इतिहास से ज़्यादा होती है: अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा हो जाता है, तो इनपुट को छोटा कर दिया जाएगा. examples
से पहले, messages
से आइटम हटा दिए जाएंगे.
messages[]
object (Message
)
ज़रूरी है. हाल ही की बातचीत के इतिहास का स्नैपशॉट, जिसे समय के हिसाब से क्रम में लगाया गया है.
दो लेखकों के बीच बारी-बारी से टर्न लेता है.
अगर इनपुट का कुल साइज़, मॉडल के inputTokenLimit
से ज़्यादा है, तो इनपुट को छोटा कर दिया जाएगा: messages
से सबसे पुराने आइटम हटा दिए जाएंगे.
उदाहरण
मॉडल को निर्देश देने के लिए इस्तेमाल किया जाने वाला इनपुट/आउटपुट का उदाहरण.
इससे पता चलता है कि मॉडल को किस तरह जवाब देना चाहिए या अपने जवाब को कैसे फ़ॉर्मैट करना चाहिए.
input
object (Message
)
ज़रूरी है. उपयोगकर्ता से मिले इनपुट Message
का उदाहरण.
output
object (Message
)
ज़रूरी है. इनपुट के हिसाब से, मॉडल का आउटपुट क्या होना चाहिए, इसका उदाहरण.
GenerateTextResponse
मॉडल का जवाब, जिसमें उम्मीदवार के पूरे होने की जानकारी भी शामिल है.
candidates[]
object (TextCompletion
)
मॉडल से मिले उम्मीदवार के जवाब.
filters[]
object (ContentFilter
)
प्रॉम्प्ट और जवाब के टेक्स्ट के लिए, कॉन्टेंट फ़िल्टर करने वाले मेटाडेटा का सेट.
इससे पता चलता है कि किस SafetyCategory
ने इस जवाब से किसी कैंडिडेट को ब्लॉक किया, ब्लॉक करने के लिए सबसे कम HarmProbability
क्या था, और उस कैटगरी के लिए HarmThreshold की सेटिंग क्या है. इससे पता चलता है कि SafetySettings
में कितना कम बदलाव किया जाना चाहिए, ताकि कम से कम एक जवाब अनब्लॉक किया जा सके.
ब्लॉकिंग को अनुरोध में मौजूद SafetySettings
या एपीआई के डिफ़ॉल्ट SafetySettings
से कॉन्फ़िगर किया जाता है.
safetyFeedback[]
object (SafetyFeedback
)
कॉन्टेंट फ़िल्टर करने से जुड़ी सुरक्षा से जुड़ा कोई भी सुझाव या राय दिखाता है.
JSON के काेड में दिखाना |
---|
{ "candidates": [ { object ( |
TextCompletion
मॉडल से मिला आउटपुट टेक्स्ट.
output
string
सिर्फ़ आउटपुट के लिए. मॉडल से जनरेट किया गया टेक्स्ट.
safetyRatings[]
object (SafetyRating
)
किसी जवाब की सुरक्षा के लिए रेटिंग.
हर कैटगरी के लिए ज़्यादा से ज़्यादा एक रेटिंग दी जा सकती है.
citationMetadata
object (CitationMetadata
)
सिर्फ़ आउटपुट के लिए. इस TextCompletion
में, मॉडल से जनरेट किए गए output
के लिए, कोटेशन की जानकारी.
output
में शामिल किसी भी टेक्स्ट के लिए, इस फ़ील्ड में एट्रिब्यूशन की जानकारी अपने-आप भर सकती है.
JSON के काेड में दिखाना |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
पूरे अनुरोध के लिए सुरक्षा से जुड़ा सुझाव/राय या शिकायत.
सुरक्षा सेटिंग की वजह से, इनपुट और/या रिस्पॉन्स में मौजूद कॉन्टेंट को ब्लॉक करने पर, यह फ़ील्ड अपने-आप भर जाता है. ऐसा हो सकता है कि हर नुकसान पहुंचाने वाली कैटगरी के लिए, SafetyFeedback मौजूद न हो. हर SafetyFeedback में, अनुरोध में इस्तेमाल की गई सुरक्षा सेटिंग के साथ-साथ, नतीजा दिखाने के लिए, नुकसान की सबसे कम संभावना की अनुमति दी जानी चाहिए.
rating
object (SafetyRating
)
कॉन्टेंट के आधार पर सुरक्षा रेटिंग तय की जाती है.
setting
object (SafetySetting
)
अनुरोध पर लागू की गई सुरक्षा सेटिंग.
JSON के काेड में दिखाना |
---|
{ "rating": { object ( |