PaLM (decommissioned)

שיטה: models.generateText

יצירת תשובה מהמודל על סמך הודעת קלט.

נקודת קצה

פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- User-u3b7m: models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

שייאכפו ב-GenerateTextRequest.prompt וב-GenerateTextResponse.candidates. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום כל הנחיה ותגובה שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא צוין SafetySetting ל-SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY,‏ HARM_CATEGORY_TOXICITY,‏ HARM_CATEGORY_VIOLENCE,‏ HARM_CATEGORY_SEXUAL,‏ HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.

stopSequences[] string

קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature של Model שהוחזר על ידי הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p של Model שהחזיר את הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k של Model שהחזיר את הפונקציה getModel.

גוף התשובה

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse.

שיטה: models.countTextTokens

מריצה את כלי ההמרה לאסימונים של מודל על טקסט, ומחזירה את מספר האסימונים.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. זהו מזהה לשימוש במודל.

השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

גוף התשובה

תשובה מ-models.countTextTokens.

היא מחזירה את הערך tokenCount של המודל במסגרת prompt.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שה-model ממיר את ה-prompt אליהם.

תמיד מספר חיובי.

ייצוג ב-JSON
{
  "tokenCount": integer
}

שיטה: models.generateMessage

יוצרת תשובה מהמודל בהינתן קלט MessagePrompt.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש.

פורמט: name=models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. הקלט הטקסטואלי המובנה שניתן למודל כהוראות.

לאחר הזנת הנחיה, המודל יחזיר את ההודעה הבאה שהוא צופה שתישלח באותו דיון.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט.

הערכים יכולים לנוע מעל [0.0,1.0], כולל. ערך קרוב יותר ל-1.0 יניב תשובות מגוונות יותר, ואילו ערך קרוב יותר ל-0.0 יוביל בדרך כלל לתשובות פחות מפתיעות מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר הודעות התגובה שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.

במדגם Nucleus נלקחת בחשבון הקבוצה הקטנה ביותר של אסימונים שסכום הסבירות שלהם הוא לפחות topP.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר.

גוף התשובה

התגובה מהמודל.

כולל הודעות של מועמדים והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
candidates[] object (Message)

הודעות תגובה של המועמדים מהמודל.

messages[] object (Message)

היסטוריית השיחות שבה המערכת משתמשת.

filters[] object (ContentFilter)

קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.

כאן מצוין אילו SafetyCategory(ים) חסמו מועמד בתשובה הזו, את HarmProbability הנמוכים ביותר שגרמו לחסימה, ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו.

ייצוג JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

שיטה: models.countMessageTokens

מריצה את כלי ההמרה לאסימונים של מודל על מחרוזת ומחזירה את מספר האסימונים.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. זהו מזהה לשימוש במודל.

השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. ההנחיה, שמספר האסימונים שלה צריך להחזיר.

גוף התשובה

תשובה של models.countMessageTokens.

הפונקציה מחזירה את הערך של tokenCount של המודל עבור prompt.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר הטוקנים שה-model ממיר את ה-prompt אליהם.

תמיד מספר חיובי.

ייצוג JSON
{
  "tokenCount": integer
}

שיטה: models.embedText

יוצרת הטמעה מהמודל כשמוצגת הודעת קלט.

נקודת קצה

פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
text string

זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.

גוף התשובה

התגובה ל-EmbedTextRequest.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
embedding object (Embedding)

פלט בלבד. הטמעת הקוד שנוצרה מטקסט הקלט.

ייצוג JSON
{
  "embedding": {
    object (Embedding)
  }
}

שיטה: models.batchEmbedText

יוצרת הטמעות מרובות מהמודל בעל טקסט קלט בקריאה סינכרונית.

נקודת קצה

פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

פרמטרים של נתיב

model string

חובה. השם של Model שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001. הפורמט הוא models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
texts[] string

זה שינוי אופציונלי. טקסטים חופשיים של הקלט שהמודל יהפוך להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, שמתוכן תופסת שגיאה.

requests[] object (EmbedTextRequest)

זה שינוי אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהערכים texts או requests.

גוף התשובה

התגובה ל-EmbedTextRequest.

אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:

שדות
embeddings[] object (Embedding)

פלט בלבד. הטמעות ההטמעות שנוצרו מטקסט הקלט.

ייצוג JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

בקשה לקבלת הטמעה של טקסט מהמודל.

שדות
model string

חובה. שם המודל לשימוש בפורמט model=models/{model}.

text string

זה שינוי אופציונלי. טקסט הקלט בפורמט חופשי שהמודל יהפוך להטמעה.

ייצוג ב-JSON
{
  "model": string,
  "text": string
}

שיטה: AdjustModels.generateText

יצירת תשובה מהמודל על סמך הודעת קלט.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא tunedModels/{tunedmodel}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.

בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

שייאכפו ב-GenerateTextRequest.prompt וב-GenerateTextResponse.candidates. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום כל הנחיה ותגובה שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא צוין SafetySetting ל-SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY,‏ HARM_CATEGORY_TOXICITY,‏ HARM_CATEGORY_VIOLENCE,‏ HARM_CATEGORY_SEXUAL,‏ HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.

stopSequences[] string

קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.

temperature number

זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature של Model שהוחזר על ידי הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.

הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p של Model שהחזיר את הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.

הדגימה לפי Top-k מתייחסת לקבוצה של topK האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k של Model שהחזיר את הפונקציה getModel.

גוף התשובה

אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse.

ContentFilter

מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.

ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.

שדות
reason enum (BlockedReason)

הסיבה שבגללה התוכן נחסם במהלך עיבוד הבקשה.

message string

מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.

ייצוג JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

רשימה של סיבות אפשריות לחסימת תוכן.

טיפוסים בני מנייה (enum)
BLOCKED_REASON_UNSPECIFIED לא צוינה סיבה לחסימה.
SAFETY התוכן נחסם על ידי הגדרות הבטיחות.
OTHER התוכן נחסם, אבל לסיבה אין שיוך לקטגוריה.

הטמעה

רשימה של מספרים שמייצגים את הטמעת הנתונים.

שדות
value[] number

ערכי ההטמעה.

ייצוג ב-JSON
{
  "value": [
    number
  ]
}

הודעה

היחידה הבסיסית של טקסט מובנה.

Message כולל author ואת content של Message.

השדה author משמש לתיוג הודעות כשהן מועברות למודל כטקסט.

שדות
author string

זה שינוי אופציונלי. המחבר של ההודעה הזו.

המפתח הזה משמש לתיוג התוכן של ההודעה כשמזינים אותה למודל כטקסט.

השם של המחבר יכול להיות כל מחרוזת אלפאנומרית.

content string

חובה. תוכן הטקסט של Message המובנה.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של content שנוצר על ידי מודל מופיעים ב-Message הזה.

אם Message זה נוצר כפלט מהמודל, אפשר לאכלס את השדה הזה בפרטי שיוך עבור כל טקסט שנכלל ב-content. בשדה הזה נעשה שימוש רק בפלט.

ייצוג ב-JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

כל הטקסט של הקלט המובנה שמועבר למודל כהנחיה.

MessagePrompt מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות פלט או קלט של משתמשים שמעודדים את המודל להגיב בדרכים שונות, ואת היסטוריית השיחות או רשימת ההודעות שמייצגות את פניות המתחלפות בין המשתמש לבין המודל.

שדות
context string

זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי הבסיס לתשובה.

אם השדה לא ריק, הערך של context יתווסף קודם למודל לפני examples ו-messages. כשמשתמשים ב-context, חשוב לציין אותו בכל בקשה כדי לשמור על רציפות.

השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגום הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן טענה, סיווג הרגש כ'שמחה', 'עצובה' או 'ניטרלית').

כל מה שנכלל בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל והבקשה לקלט נקטעת.

examples[] object (Example)

זה שינוי אופציונלי. דוגמאות למה שהמודל צריך ליצור.

זה כולל גם קלט של משתמשים וגם את התגובה שהמודל צריך לחקות.

המערכת מתייחסת ל-examples האלה באופן זהה להודעות בשיחה, מלבד העובדה שהן מקבלות עדיפות על פני ההיסטוריה ב-messages: אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל, הקלט יקוצר. הפריטים יוסרו מ-messages לפני examples.

messages[] object (Message)

חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי תאריך.

הפונקציה מחברת בין שני מחברים.

אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages.

ייצוג JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

דוגמה

דוגמה לקלט/פלט שמשמש להדרכת המודל.

הוא מדגים איך המודל צריך להשיב או את הפורמט של התשובה שלו.

שדות
input object (Message)

חובה. דוגמה לקלט Message מהמשתמש.

output object (Message)

חובה. דוגמה לפלט שהמודל אמור להפיק בהתאם לקלט.

ייצוג ב-JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

התשובה מהמודל, כולל השלמות של מועמדים.

שדות
candidates[] object (TextCompletion)

התשובות של המועמדים מהמודל.

filters[] object (ContentFilter)

קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.

כאן מצוינים קובצי ה-SafetyCategory שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו. הנתון הזה מציין את השינוי הקטן ביותר ב-SafetySettings שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.

החסימה מוגדרת על ידי ה-SafetySettings בבקשה (או על ידי SafetySettings ברירת המחדל של ה-API).

safetyFeedback[] object (SafetyFeedback)

מחזירה כל משוב בנושא בטיחות שקשור לסינון תוכן.

ייצוג JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

טקסט פלט שהוחזר ממודל.

שדות
output string

פלט בלבד. הטקסט שנוצר והוחזר מהמודל.

safetyRatings[] object (SafetyRating)

דירוגים של בטיחות התגובה.

לכל קטגוריה יש דירוג אחד לכל היותר.

citationMetadata object (CitationMetadata)

פלט בלבד. פרטי הציטוט של output שנוצר על ידי מודל מופיעים ב-TextCompletion הזה.

השדה הזה עשוי להיות מאוכלס במידע שיוך לכל טקסט שכלול ב-output.

ייצוג JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

משוב בנושא בטיחות לבקשה כולה.

השדה הזה מאוכלס אם תוכן בקלט ו/או בתגובה חסום בגלל הגדרות בטיחות. יכול להיות שהמשוב SafetyFeedback לא קיים לכל קטגוריית HarmCategory. כל משוב בנושא SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את סבירות הפגיעה הנמוכה ביותר שמותרת כדי להחזיר תוצאה.

שדות
rating object (SafetyRating)

דירוג הבטיחות נמדד לפי התוכן.

setting object (SafetySetting)

הגדרות הבטיחות שחלות על הבקשה.

ייצוג JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

טקסט שסופק למודל כהוראות.

המודל ישתמש בהנחיה הזו כדי ליצור השלמה של טקסט.

שדות
text string

חובה. הטקסט של ההנחיה.

ייצוג ב-JSON
{
  "text": string
}