PaLM (deprecated)

שיטה: models.generateText

יוצרת תשובה מהמודל בהינתן הודעת קלט.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- encoding-u3b7m: models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.

בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

לאכיפה בGenerateTextRequest.prompt ובGenerateTextResponse.candidates. לכל סוג של SafetyCategory יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום הצעות ותשובות שלא יעמדו בערכי הסף שנקבעו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting עבור SafetyCategory מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.

stopSequences[] string

הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם השדה הזה מוגדר, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.

temperature number

זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature של Model שהחזיר את הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.

הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם המדיניות לא מוגדרת, ברירת המחדל תהיה exportTokenLimit שצוין במפרט של Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p של Model שהחזיר את הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.

במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.

דגימת הדגלים מבוססת על סט של topK האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k של Model שהחזיר את הפונקציה getModel.

גוף התשובה

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse.

שיטה: models.countTextTokens

מריצה את כלי ההמרה לאסימונים של מודל על טקסט, ומחזירה את מספר האסימונים.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.

השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.

גוף התשובה

תשובה של models.countTextTokens.

היא מחזירה את הערך tokenCount של המודל במסגרת prompt.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר האסימונים שאליהם model מוסיף את האסימון prompt.

תמיד לא שלילי.

ייצוג JSON
{
  "tokenCount": integer
}

שיטה: models.generateMessage

יוצרת תשובה מהמודל בהינתן קלט MessagePrompt.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש.

פורמט: name=models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. הקלט הטקסטואלי המובנה שניתן למודל כהנחיה.

בהתאם להנחיה, המודל יחזיר את ההודעה הבאה בדיון שהוא חוזה.

temperature number

זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט.

הערכים יכולים לנוע מעל [0.0,1.0], כולל. ערך קרוב יותר ל-1.0 יניב תשובות מגוונות יותר. לעומת זאת, ערך קרוב יותר ל-0.0 בדרך כלל יניב תשובות פחות מפתיעות מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר הודעות התגובה שנוצרו שיש להחזיר.

הערך הזה חייב להיות בטווח של [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.

דגימת גרעין מביאה בחשבון את קבוצת האסימונים הקטנה ביותר שסכום ההסתברות שלהם הוא topP לפחות.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.

במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.

דגימת הדגלים מבוססת על סט של topK האסימונים בעלי הסבירות הגבוהה ביותר.

גוף התשובה

התשובה מהמודל.

כולל הודעות של מועמדים והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
candidates[] object (Message)

הודעות תגובה של המועמדים מהמודל.

messages[] object (Message)

היסטוריית השיחות שהמודל משתמש בה.

filters[] object (ContentFilter)

קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.

כאן מצוין אילו SafetyCategory(ים) חסמו מועמד בתשובה הזו, את HarmProbability הנמוכים ביותר שגרמו לחסימה ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו.

ייצוג JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

שיטה: models.countMessageTokens

מריצה את כלי ההמרה לאסימונים של מודל על מחרוזת ומחזירה את מספר האסימונים.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

פרמטרים של נתיב

model string

חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.

השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list.

פורמט: models/{model} הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (MessagePrompt)

חובה. ההנחיה, שמספר האסימונים שלה צריך להחזיר.

גוף התשובה

תשובה של models.countMessageTokens.

היא מחזירה את הערך tokenCount של המודל במסגרת prompt.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
tokenCount integer

מספר האסימונים שאליהם model מוסיף את האסימון prompt.

תמיד לא שלילי.

ייצוג JSON
{
  "tokenCount": integer
}

שיטה: models.embedText

יוצרת הטמעה מהמודל כשמוצגת הודעת קלט.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

פרמטרים של נתיב

model string

חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
text string

זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.

גוף התשובה

התגובה ל-EmbedTextRequest.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
embedding object (Embedding)

פלט בלבד. ההטמעה שנוצרה מטקסט הקלט.

ייצוג JSON
{
  "embedding": {
    object (Embedding)
  }
}

שיטה: models.batchEmbedText

יוצרת הטמעות מרובות מהמודל בעל טקסט קלט בקריאה סינכרונית.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

פרמטרים של נתיב

model string

חובה. שם ה-Model שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001 הוא מופיע בצורה models/{model}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
texts[] string

זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ומתווספת להן שגיאה.

requests[] object (EmbedTextRequest)

זה שינוי אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהערכים texts או requests.

גוף התשובה

התגובה ל-EmbedTextRequest.

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:

שדות
embeddings[] object (Embedding)

פלט בלבד. ההטמעות (embeddings) שנוצרו מטקסט הקלט.

ייצוג JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

בקשה לקבלת הטמעה של טקסט מהמודל.

ייצוג JSON
{
  "model": string,
  "text": string
}
שדות
model string

חובה. שם המודל לשימוש בפורמט model=models/{model}.

text string

זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.

שיטה: formattedModels.generateText

יוצרת תשובה מהמודל בהינתן הודעת קלט.

נקודת קצה

לשלוח https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

פרמטרים של נתיב

model string

חובה. השם של Model או TunedModel שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- User-u3b7m: tunedModels/{tunedmodel}.

גוף הבקשה

גוף הבקשה מכיל נתונים במבנה הבא:

שדות
prompt object (TextPrompt)

חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.

בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.

safetySettings[] object (SafetySetting)

זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.

לאכיפה בGenerateTextRequest.prompt ובGenerateTextResponse.candidates. לכל סוג של SafetyCategory יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום הצעות ותשובות שלא יעמדו בערכי הסף שנקבעו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting עבור SafetyCategory מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.

stopSequences[] string

הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם השדה הזה מוגדר, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.

temperature number

זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature של Model שהחזיר את הפונקציה getModel.

הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.

candidateCount integer

זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.

הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.

maxOutputTokens integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.

אם המדיניות לא מוגדרת, ברירת המחדל תהיה exportTokenLimit שצוין במפרט של Model.

topP number

זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.

במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.

האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p של Model שהחזיר את הפונקציה getModel.

topK integer

זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.

במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.

דגימת הדגלים מבוססת על סט של topK האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.

הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k של Model שהחזיר את הפונקציה getModel.

גוף התשובה

אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse.

ContentFilter

מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.

ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.

ייצוג JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
שדות
reason enum (BlockedReason)

הסיבה לחסימת התוכן במהלך עיבוד הבקשה.

message string

מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.

BlockedReason

רשימה של סיבות אפשריות לחסימת תוכן.

טיפוסים בני מנייה (enum)
BLOCKED_REASON_UNSPECIFIED לא צוינה סיבה לחסימה.
SAFETY התוכן נחסם על ידי הגדרות הבטיחות.
OTHER התוכן נחסם, אבל לסיבה אין שיוך לקטגוריה.

הטמעה

רשימה של פריטים צפופים שמייצגים את ההטמעה.

ייצוג JSON
{
  "value": [
    number
  ]
}
שדות
value[] number

ערכי ההטמעה.

הודעה

היחידה הבסיסית של טקסט מובנה.

Message כולל את author ואת content של Message.

השדה author משמש לתיוג הודעות כשהן מוזנות למודל כטקסט.

ייצוג JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
שדות
author string

זה שינוי אופציונלי. המחבר של ההודעה הזו.

המפתח הזה משמש לתיוג התוכן של ההודעה כשמזינים אותה למודל כטקסט.

המחבר יכול להיות כל מחרוזת אלפאנומרית.

content string

חובה. תוכן הטקסט של Message המובנה.

citationMetadata object (CitationMetadata)

פלט בלבד. מידע על ציטוטים ביבליוגרפיים של content שנוצר על ידי המודל ב-Message הזה.

אם Message זה נוצר כפלט מהמודל, אפשר לאכלס את השדה הזה בפרטי שיוך עבור כל טקסט שנכלל ב-content. השדה הזה משמש רק בפלט.

MessagePrompt

כל הטקסט של הקלט המובנה שמועבר למודל כהנחיה.

MessagePrompt מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות פלט או קלט של משתמשים שמעודדים את המודל להגיב בדרכים שונות, ואת היסטוריית השיחות או רשימת ההודעות שמייצגות את פניות המתחלפות בין המשתמש לבין המודל.

ייצוג JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
שדות
context string

זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי להניח את התשובה.

אם השדה לא ריק, הערך של context יתווסף קודם למודל לפני examples ו-messages. כדי לשמור על המשכיות בתהליך, חשוב למלא את context בכל בקשה.

השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולעזור בתשובות. דוגמאות: "תרגום הביטוי מאנגלית לצרפתית". או "לאחר הצהרה, סווגו את הרגש כשמח, עצוב או ניטרלי".

כל מה שנכלל בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל והבקשה לקלט נקטעת.

examples[] object (Example)

זה שינוי אופציונלי. דוגמאות למה שהמודל צריך ליצור.

זה כולל גם קלט של משתמשים וגם את התגובה שהמודל צריך לחקות.

ההתייחסות לexamples האלה זהה לזו של הודעות בשיחה, אבל הן מקבלות קדימות על פני ההיסטוריה בmessages: אם גודל הקלט הכולל חורג מה-inputTokenLimit של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages לפני examples.

messages[] object (Message)

חובה. תמונת מצב של היסטוריית השיחות מהזמן האחרון, ממוינת בסדר כרונולוגי.

הפונקציה מחברת בין שני מחברים.

אם גודל הקלט הכולל חורג מ-inputTokenLimit של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages.

דוגמה

דוגמה של קלט/פלט שמשמשת להוראה של המודל.

הוא מדגים איך המודל צריך להגיב או לעצב את התשובה שלו.

ייצוג JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
שדות
input object (Message)

חובה. דוגמה לקלט Message מהמשתמש.

output object (Message)

חובה. דוגמה לפלט שהמודל צריך לקבל בהינתן הקלט.

GenerateTextResponse

התשובות מהמודל, כולל השלמות של המועמדים.

ייצוג JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
שדות
candidates[] object (TextCompletion)

התשובות של המועמדים מהמודל.

filters[] object (ContentFilter)

קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.

כאן מצוין אילו SafetyCategory(ים) חסמו מועמד בתשובה הזו, את HarmProbability הנמוכים ביותר שגרמו לחסימה ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו. הנתון הזה מציין את השינוי הקטן ביותר ב-SafetySettings שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.

החסימה מוגדרת על ידי ה-SafetySettings בבקשה (או על ידי SafetySettings ברירת המחדל של ה-API).

safetyFeedback[] object (SafetyFeedback)

מחזירה כל משוב בנושא בטיחות שקשור לסינון תוכן.

TextCompletion

טקסט פלט שהוחזר ממודל.

ייצוג JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
שדות
output string

פלט בלבד. הטקסט שנוצר שהוחזר מהמודל.

safetyRatings[] object (SafetyRating)

דירוגים של בטיחות התשובה.

לכל קטגוריה יש דירוג אחד לכל היותר.

citationMetadata object (CitationMetadata)

פלט בלבד. מידע על ציטוטים ביבליוגרפיים של output שנוצר על ידי המודל ב-TextCompletion הזה.

אפשר לאכלס את השדה הזה בפרטי שיוך (Attribution) של כל טקסט שכלול ב-output.

SafetyFeedback

משוב בנושא בטיחות לכל הבקשה.

השדה הזה יאוכלס אם התוכן בקלט או בתגובה חסום עקב הגדרות בטיחות. יכול להיות שהמשוב SafetyFeedback לא קיים לכל קטגוריית HarmCategory. כל משוב בנושא SafetyFeedback יחזיר את הגדרות הבטיחות שבהן הבקשה משתמשת, וגם את סבירות הפגיעה הנמוכה ביותר שמותרת כדי להחזיר תוצאה.

ייצוג JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
שדות
rating object (SafetyRating)

דירוג הבטיחות נמדד לפי התוכן.

setting object (SafetySetting)

הגדרות הבטיחות הוחלו על הבקשה.

TextPrompt

הטקסט שניתן למודל כהנחיה.

המודל ישתמש ב-TextPrompt כדי ליצור השלמת טקסט.

ייצוג JSON
{
  "text": string
}
שדות
text string

חובה. הטקסט של ההנחיה.