PaLM (decommissioned)

שיטה: models.generateText

יצירת תגובה מהמודל על סמך הודעת קלט.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

שיחולו על GenerateTextRequest.prompt ו-GenerateTextResponse.candidates. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום כל הנחיות ותשובות שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא צוין SafetySetting ל-SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY,‏ HARM_CATEGORY_TOXICITY,‏ HARM_CATEGORY_VIOLENCE,‏ HARM_CATEGORY_SEXUAL,‏ HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.

stopSequences[] string

קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם יצוין, ה-API יפסיק בהופעה הראשונה של רצף עצירה. רצף העצירות לא ייכלל בתשובה.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature של Model שהוחזר על ידי הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ככל שהערך קרוב יותר ל-1.0, התשובות יהיו מגוונות ויצירתיות יותר. לעומת זאת, ככל שהערך קרוב יותר ל-0.0, התשובות מהמודל יהיו בדרך כלל ישירות יותר.

candidateCount integer

זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. הדגימה Top-k מגבילה באופן ישיר את המספר המקסימלי של האסימונים שצריך להביא בחשבון, בעוד שהדגימה Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_p של Model שהוחזר על ידי הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_k של Model שהוחזר על ידי הפונקציה getModel.

גוף התשובה

אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse.

שיטה: models.countTextTokens

הפונקציה מפעילה את ה-tokenizer של מודל על טקסט ומחזירה את מספר האסימונים.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. שם המשאב של הדגם. זהו מזהה לשימוש במודל.

השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

גוף התשובה

תשובה מ-models.countTextTokens.

הפונקציה מחזירה את הערך של tokenCount של המודל עבור prompt.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שה-model ממיר את ה-prompt אליהם.

תמיד מספר חיובי.

ייצוג ב-JSON
{
  "tokenCount": integer
}

שיטה: models.generateMessage

יצירת תגובה מהמודל על סמך קלט MessagePrompt.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. שם המודל שבו רוצים להשתמש.

פורמט: name=models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. הקלט הטקסטואלי המובנה שניתן למודל כהוראה.

לאחר הזנת הנחיה, המודל יחזיר את ההודעה הבאה שהוא צופה שתישלח באותו דיון.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט.

הערכים יכולים לנוע בין 0 ל-[0.0,1.0], כולל. ערך קרוב יותר ל-1.0 יניב תשובות מגוונות יותר, ואילו ערך קרוב יותר ל-0.0 יוביל בדרך כלל לתשובות פחות מפתיעות מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר הודעות התגובה שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

במדגם Nucleus נלקחת בחשבון הקבוצה הקטנה ביותר של אסימונים שסכום הסבירות שלהם הוא לפחות topP.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר.

גוף התשובה

התשובה מהמודל.

הנתונים האלה כוללים הודעות מועמדות והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
candidates[] object (Message)

הודעות של תשובות מועמדות מהמודל.

messages[] object (Message)

היסטוריית השיחות שבה השתמש המודל.

filters[] object (ContentFilter)

קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.

כאן מצוינים קובצי ה-SafetyCategory שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו.

ייצוג ב-JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

שיטה: models.countMessageTokens

הפונקציה מפעילה את ה-tokenizer של מודל במחרוזת ומחזירה את מספר האסימונים.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. שם המשאב של הדגם. זהו מזהה לשימוש במודל.

השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. ההנחיה, שמספר האסימונים שלה צריך להוחזר.

גוף התשובה

תשובה מ-models.countMessageTokens.

הפונקציה מחזירה את הערך של tokenCount של המודל עבור prompt.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שה-model ממיר את ה-prompt אליהם.

תמיד מספר חיובי.

ייצוג ב-JSON
{
  "tokenCount": integer
}

שיטה: models.embedText

יצירת הטמעה (embedding) מהמודל על סמך הודעת קלט.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
text string

זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.

גוף התשובה

התגובה לבקשה מסוג EmbedTextRequest.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
embedding object (Embedding)

פלט בלבד. הטמעת הקוד שנוצרה מטקסט הקלט.

ייצוג ב-JSON
{
  "embedding": {
    object (Embedding)
  }
}

שיטה: models.batchEmbedText

יצירת מספר הטמעות (embeddings) מהמודל על סמך טקסט קלט בשיחה סינכרונית.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. השם של Model שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001. הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
texts[] string

זה שינוי אופציונלי. טקסטים חופשיים של קלט שהמודל יהפוך להטמעה (embedding). המגבלה הנוכחית היא 100 טקסטים, מעבר למספר הזה תוצג שגיאה.

requests[] object (EmbedTextRequest)

זה שינוי אופציונלי. הטמעת הבקשות של האצווה. אפשר להגדיר רק אחד מבין texts או requests.

גוף התשובה

התגובה לבקשה מסוג EmbedTextRequest.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
embeddings[] object (Embedding)

פלט בלבד. ההטמעות (embeddings) שנוצרות מטקסט הקלט.

ייצוג ב-JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

שליחת בקשה לקבלת הטמעת טקסט מהמודל.

שדות
model string

חובה. שם המודל לשימוש בפורמט model=models/{model}.

text string

זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.

ייצוג ב-JSON
{
  "model": string,
  "text": string
}

שיטה: tunedModels.generateText

יצירת תגובה מהמודל על סמך הודעת קלט.

נקודת קצה

פוסט https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא tunedModels/{tunedmodel}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

שיחולו על GenerateTextRequest.prompt ו-GenerateTextResponse.candidates. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום כל הנחיות ותשובות שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא צוין SafetySetting ל-SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY,‏ HARM_CATEGORY_TOXICITY,‏ HARM_CATEGORY_VIOLENCE,‏ HARM_CATEGORY_SEXUAL,‏ HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.

stopSequences[] string

קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם יצוין, ה-API יפסיק בהופעה הראשונה של רצף עצירה. רצף העצירות לא ייכלל בתשובה.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature של Model שהוחזר על ידי הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ככל שהערך קרוב יותר ל-1.0, התשובות יהיו מגוונות ויצירתיות יותר. לעומת זאת, ככל שהערך קרוב יותר ל-0.0, התשובות מהמודל יהיו בדרך כלל ישירות יותר.

candidateCount integer

זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. הדגימה Top-k מגבילה באופן ישיר את המספר המקסימלי של האסימונים שצריך להביא בחשבון, בעוד שהדגימה Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_p של Model שהוחזר על ידי הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_k של Model שהוחזר על ידי הפונקציה getModel.

גוף התשובה

אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse.

ContentFilter

מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה אחת.

ה-ContentFilter מכיל סיבה ומחרוזת תמיכה אופציונלית. יכול להיות שהסיבה לא תצוין.

שדות
reason enum (BlockedReason)

הסיבה שבגללה התוכן נחסם במהלך עיבוד הבקשה.

message string

מחרוזת שמתארת את אופן הסינון בפירוט רב יותר.

ייצוג ב-JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

רשימת סיבות אפשריות לכך שהתוכן נחסם.

טיפוסים בני מנייה (enum)
BLOCKED_REASON_UNSPECIFIED לא צוינה סיבה לחסימה.
SAFETY התוכן נחסם על ידי הגדרות הבטיחות.
OTHER התוכן נחסם, אבל הסיבה לא מסווגת.

הטמעה

רשימה של מספרים שמייצגים את הטמעת הנתונים.

שדות
value[] number

ערכי ההטמעה.

ייצוג ב-JSON
{
  "value": [
    number
  ]
}

הודעה

היחידה הבסיסית של טקסט מובנה.

Message כולל author ואת content של Message.

השדה author משמש לתיוג הודעות כשהן מועברות למודל כטקסט.

שדות
author string

זה שינוי אופציונלי. מי שכתב את ההודעה הזו.

המזהה הזה משמש כמפתח לתיוג התוכן של ההודעה הזו כשהיא מוזנת למודל כטקסט.

השם של המחבר יכול להיות כל מחרוזת אלפאנומרית.

content string

חובה. תוכן הטקסט של Message המובנה.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של content שנוצר על ידי מודל מופיעים בMessage הזה.

אם השדה Message נוצר כפלט מהמודל, יכול להיות שהוא יאוכלס במידע שיוך לכל טקסט שכלול ב-content. השדה הזה משמש רק בפלט.

ייצוג ב-JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

כל טקסט הקלט המובנה שהועברו למודל כהוראות.

MessagePrompt מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות קלט/פלט של מודל שמכינות את המודל להגיב בדרכים שונות, והיסטוריית השיחה או רשימת ההודעות שמייצגות את התורות החלופיות של השיחה בין המשתמש למודל.

שדות
context string

זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי להגדיר את התגובה.

אם השדה לא ריק, הערך של context יועבר למודל לפני הערכים של examples ו-messages. כשמשתמשים ב-context, חשוב לציין אותו בכל בקשה כדי לשמור על רציפות.

השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגום הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן טענה, סיווג הרגש כ'שמח', 'עצוב' או 'ניטרלי').

כל מה שכלול בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל ובקשת הקלט מקוצרת.

examples[] object (Example)

זה שינוי אופציונלי. דוגמאות לדברים שהמודל אמור ליצור.

הנתונים האלה כוללים גם את הקלט של המשתמש וגם את התגובה שהמודל צריך לחקות.

המערכת מתייחסת ל-examples האלה באופן זהה להודעות של שיחות, מלבד העובדה שהן מקבלות עדיפות על פני ההיסטוריה ב-messages: אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל, הקלט יקוצר. הפריטים יוסרו מ-messages לפני examples.

messages[] object (Message)

חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי תאריך.

תורנות בין שני מחברים.

אם הגודל הכולל של הקלט חורג מ-inputTokenLimit של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages.

ייצוג ב-JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

דוגמה

דוגמה לקלט/פלט שמשמש להדרכת המודל.

הוא מדגים איך המודל צריך להשיב או איך צריך לעצב את התשובה שלו.

שדות
input object (Message)

חובה. דוגמה לקלט Message מהמשתמש.

output object (Message)

חובה. דוגמה לפלט שהמודל אמור להפיק בהתאם לקלט.

ייצוג ב-JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

התשובה מהמודל, כולל השלמות של מועמדים.

שדות
candidates[] object (TextCompletion)

תשובות מועמדות מהמודל.

filters[] object (ContentFilter)

קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.

כאן מצוינים קובצי ה-SafetyCategory שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו. זהו השינוי הקטן ביותר ב-SafetySettings שיהיה צורך לבצע כדי לבטל את החסימה של לפחות תגובה אחת.

החסימה מוגדרת על ידי השדה SafetySettings בבקשה (או SafetySettings שמוגדרת כברירת מחדל ב-API).

safetyFeedback[] object (SafetyFeedback)

הפונקציה מחזירה משוב בנושאי בטיחות שקשור לסינון תוכן.

ייצוג ב-JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

טקסט פלט שהוחזר ממודל.

שדות
output string

פלט בלבד. הטקסט שנוצר והוחזר מהמודל.

safetyRatings[] object (SafetyRating)

דירוגים של בטיחות התגובה.

אפשר להגדיר סיווג אחד לכל היותר לכל קטגוריה.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של output שנוצר על ידי מודל מופיעים בTextCompletion הזה.

השדה הזה עשוי להיות מאוכלס במידע שיוך לכל טקסט שכלול ב-output.

ייצוג ב-JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

משוב בנושא בטיחות לגבי בקשה שלמה.

השדה הזה מאוכלס אם תוכן בקלט ו/או בתגובה חסום בגלל הגדרות הבטיחות. יכול להיות שהשדה SafetyFeedback לא קיים לכל קטגוריית נזק. כל הודעה של SafetyFeedback תחזיר את הגדרות הבטיחות שבהן השתמש הבקשה, וגם את הערך הנמוך ביותר של HarmProbability שצריך לאפשר כדי להחזיר תוצאה.

שדות
rating object (SafetyRating)

דירוג הבטיחות נקבע על סמך התוכן.

setting object (SafetySetting)

הגדרות הבטיחות שחלות על הבקשה.

ייצוג ב-JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

טקסט שסופק למודל כהנחיה.

המודל ישתמש בהנחיה הזו כדי ליצור השלמה של טקסט.

שדות
text string

חובה. הטקסט של ההנחיה.

ייצוג ב-JSON
{
  "text": string
}