שיטה: models.generateText
יצירת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. השם של Model או TunedModel שבהם רוצים להשתמש כדי ליצור את ההשלמה. דוגמאות:  models/text-bison-001  tunedModels/sentence-translator-u3b7m הפורמט הוא models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (TextPrompt)
חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.
בהינתן הנחיה, המודל ייצור תשובה מסוג TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting)
אופציונלי. רשימה של מקרים ייחודיים של SafetySetting לחסימת תוכן לא בטוח.
האכיפה תתבצע ב-GenerateTextRequest.prompt וב-GenerateTextResponse.candidates. לא יכולות להיות יותר מהגדרה אחת לכל סוג SafetyCategory. ה-API יחסום הנחיות ותשובות שלא יעמדו בסף שנקבע בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory שצוין ב-safetySettings. אם לא מופיע SafetySetting עבור SafetyCategory מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל עבור הקטגוריה הזו. שירות הטקסט תומך בקטגוריות הפגיעה HARM_CATEGORY_DEROGATORY,  HARM_CATEGORY_TOXICITY,  HARM_CATEGORY_VIOLENCE,  HARM_CATEGORY_SEXUAL,  HARM_CATEGORY_MEDICAL,  HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיגרמו להפסקת יצירת הפלט. אם מציינים רצף עצירה, ה-API יפסיק כשהוא ייתקל ברצף העצירה בפעם הראשונה. רצף העצירה לא ייכלל בתשובה.
temperature
number
אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.temperature של Model שמוחזר על ידי הפונקציה getModel.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך שקרוב יותר ל-1.0 יניב תשובות מגוונות ויצירתיות יותר, ואילו ערך שקרוב יותר ל-0.0 בדרך כלל יניב תשובות פשוטות יותר מהמודל.
candidateCount
integer
אופציונלי. מספר התשובות שנוצרו שיוחזרו.
הערך צריך להיות בין 1 ל-8, כולל. אם לא מגדירים ערך, ברירת המחדל היא 1.
maxOutputTokens
integer
אופציונלי. המספר המקסימלי של טוקנים שייכללו במועמד.
אם לא מציינים ערך, ברירת המחדל היא outputTokenLimit שצוין במפרט Model.
topP
number
אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שרק האסימונים הסבירים ביותר נלקחים בחשבון. דגימת k המובילים מגבילה ישירות את המספר המקסימלי של טוקנים שצריך לקחת בחשבון, בעוד שדגימת הגרעין מגבילה את מספר הטוקנים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_p של Model שמוחזר על ידי הפונקציה getModel.
topK
integer
אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
דגימת k המובילים מתבססת על קבוצת topK האסימונים הסבירים ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לראות את מאפיין Model.top_k של Model שמוחזר על ידי הפונקציה getModel.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל מופע של GenerateTextResponse.
שיטה: models.countTextTokens
מפעילה את טוקנייזר של מודל על טקסט ומחזירה את מספר הטוקנים.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list.
פורמט: models/{model} הפורמט הוא models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (TextPrompt)
חובה. טקסט הקלט החופשי שניתן למודל כפרומפט.
גוף התשובה
תשובה מאת models.countTextTokens.
הפונקציה מחזירה את tokenCount של המודל עבור prompt.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שאליהם הטוקן model מחלק את prompt.
תמיד לא שלילי.
| ייצוג ב-JSON | 
|---|
| { "tokenCount": integer } | 
שיטה: models.generateMessage
יצירת תגובה מהמודל בהינתן קלט MessagePrompt.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. שם המודל שבו רוצים להשתמש.
פורמט: name=models/{model} הוא מקבל את הצורה models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (MessagePrompt)
חובה. קלט טקסטואלי מובנה שניתן למודל כפרומפט.
בהינתן הנחיה, המודל יחזיר את מה שהוא חוזה שתהיה ההודעה הבאה בדיון.
temperature
number
אופציונלי. המדיניות קובעת את מידת הרנדומיזציה של הפלט.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך שקרוב יותר ל-1.0 יפיק תשובות מגוונות יותר, ואילו ערך שקרוב יותר ל-0.0 בדרך כלל יניב תשובות פחות מפתיעות מהמודל.
candidateCount
integer
אופציונלי. מספר הודעות התשובה שנוצרו שיוחזרו.
הערך צריך להיות בין [1, 8], כולל. אם לא מגדירים את המדיניות הזו, ברירת המחדל היא 1.
topP
number
אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
בשיטת הדגימה Nucleus נבחן הסט הקטן ביותר של טוקנים שסכום ההסתברות שלהם הוא לפחות topP.
topK
integer
אופציונלי. מספר האסימונים המקסימלי שצריך לקחת בחשבון כשמבצעים דגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת גרעין.
דגימת k המובילים מתבססת על קבוצת topK האסימונים הסבירים ביותר.
גוף התשובה
התשובה מהמודל.
המידע הזה כולל הודעות ממועמדים והיסטוריית שיחות בצורה של הודעות בסדר כרונולוגי.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
candidates[]
object (Message)
הודעות עם תשובות אפשריות מהמודל.
messages[]
object (Message)
היסטוריית השיחות שבה נעשה שימוש על ידי המודל.
filters[]
object (ContentFilter)
קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.
התגובה הזו מציינת אילו SafetyCategory חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו.
| ייצוג ב-JSON | 
|---|
| { "candidates": [ { object ( | 
שיטה: models.countMessageTokens
מפעילה את טוקנייזר של מודל על מחרוזת ומחזירה את מספר הטוקנים.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות זהה לשם של מודל שמוחזר על ידי השיטה models.list.
פורמט: models/{model} הפורמט הוא models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
prompt
object (MessagePrompt)
חובה. ההנחיה שמספר הטוקנים שלה יוחזר.
גוף התשובה
תשובה מאת models.countMessageTokens.
הפונקציה מחזירה את tokenCount של המודל עבור prompt.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שאליהם הטוקן model מחלק את prompt.
תמיד לא שלילי.
| ייצוג ב-JSON | 
|---|
| { "tokenCount": integer } | 
שיטה: models.embedText
יוצרת הטמעה מהמודל בהינתן הודעת קלט.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מקבל את הצורה models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
text
string
אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
שיטה: models.batchEmbedText
יוצר הטמעות (embeddings) מרובות מהמודל בהינתן טקסט קלט בקריאה סינכרונית.
נקודת קצה
posthttps:
פרמטרים של נתיב
model
string
חובה. השם של Model שבו משתמשים כדי ליצור את ההטמעה. דוגמאות:  models/embedding-gecko-001 הפורמט הוא models/{model}.
גוף הבקשה
גוף הבקשה מכיל נתונים עם המבנה הבא:
texts[]
string
אופציונלי. טקסטים חופשיים שיוזנו כקלט והמודל יהפוך אותם להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ואם תחרגו ממנה תוצג שגיאה.
requests[]
object (EmbedTextRequest)
אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהמאפיינים texts או requests.
גוף התשובה
התשובה ל-EmbedTextRequest.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
embeddings[]
object (Embedding)
פלט בלבד. הטמעות (embeddings) שנוצרו מטקסט הקלט.
| ייצוג ב-JSON | 
|---|
| {
  "embeddings": [
    {
      object ( | 
EmbedTextRequest
שליחת בקשה לקבלת הטמעה של טקסט מהמודל.
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
| ייצוג ב-JSON | 
|---|
| { "model": string, "text": string } | 
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.
המאפיין ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.
reason
enum (BlockedReason)
הסיבה לחסימת התוכן במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.
| ייצוג ב-JSON | 
|---|
| {
  "reason": enum ( | 
BlockedReason
רשימת סיבות אפשריות לחסימת תוכן.
| טיפוסים בני מנייה (enum) | |
|---|---|
| BLOCKED_REASON_UNSPECIFIED | לא צוינה סיבה לחסימה. | 
| SAFETY | התוכן נחסם על ידי הגדרות הבטיחות. | 
| OTHER | התוכן נחסם, אבל הסיבה לא סווגה. | 
הטמעה
רשימה של מספרים ממשיים שמייצגים את ההטמעה.
value[]
number
ערכי ההטמעה.
| ייצוג ב-JSON | 
|---|
| { "value": [ number ] } | 
הודעה
יחידת הבסיס של טקסט מובנה.
Message כולל author וcontent של Message.
התווית author משמשת לתיוג הודעות כשהן מוזנות למודל כטקסט.
content
string
חובה. תוכן הטקסט של הנתונים המובְנים Message.
citationMetadata
object (CitationMetadata)
פלט בלבד. פרטי הציטוט של content שנוצר על ידי המודל בMessage הזה.
אם Message נוצר כפלט מהמודל, יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-content. השדה הזה משמש רק בפלט.
| ייצוג ב-JSON | 
|---|
| {
  "author": string,
  "content": string,
  "citationMetadata": {
    object ( | 
MessagePrompt
כל הטקסט המובנה שמועבר למודל כהנחיה.
MessagePrompt מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות קלט של משתמשים ופלט של המודל שמכינות את המודל להגיב בדרכים שונות, ואת היסטוריית השיחה או רשימת ההודעות שמייצגות את התורות המתחלפות של השיחה בין המשתמש למודל.
context
string
אופציונלי. טקסט שצריך לספק למודל קודם כדי להבטיח שהתשובה תהיה מבוססת על מידע מהימן.
אם השדה הזה לא ריק, הערך context יינתן למודל לפני הערכים examples ו-messages. כשמשתמשים ב-context, חשוב לספק אותו בכל בקשה כדי לשמור על רצף.
בשדה הזה אפשר לתת תיאור של ההנחיה למודל כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגם את הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן הצהרה, סווג את הסנטימנט כחיובי, שלילי או ניטרלי).
אם גודל הקלט הכולל חורג מinputTokenLimit של המודל והבקשה לקלט נחתכת, כל מה שכלול בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות.
examples[]
object (Example)
אופציונלי. דוגמאות למה שהמודל צריך ליצור.
ההנחיה כוללת את הקלט של המשתמש ואת התגובה שהמודל צריך לחקות.
ההודעות האלה examples מטופלות באופן זהה להודעות בצ'אט, אלא שהן מקבלות עדיפות על פני ההיסטוריה ב-messages: אם הגודל הכולל של הקלט חורג מ-inputTokenLimit של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages לפני examples.
messages[]
object (Message)
חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי סדר כרונולוגי.
התור עובר לסירוגין בין שני מחברים.
אם הגודל הכולל של הקלט חורג מ-inputTokenLimit של המודל, הקלט ייחתך: הפריטים הכי ישנים יוסרו מ-messages.
דוגמה
GenerateTextResponse
התשובה מהמודל, כולל השלמות אפשריות.
candidates[]
object (TextCompletion)
תשובות אפשריות מהמודל.
filters[]
object (ContentFilter)
קבוצה של מטא-נתונים לסינון תוכן של הטקסט בהנחיה ובתשובה.
התגובה הזו מציינת אילו SafetyCategory חסמו את השילוב האפשרי למיקוד, מהו הערך הכי נמוך של HarmProbability שהפעיל חסימה ומהי הגדרת HarmThreshold של הקטגוריה הזו. הערך הזה מציין את השינוי הקטן ביותר ב-SafetySettings שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.
החסימה מוגדרת על ידי SafetySettings בבקשה (או על ידי SafetySettings שמוגדר כברירת מחדל ב-API).
safetyFeedback[]
object (SafetyFeedback)
מחזירה משוב על בטיחות שקשור לסינון תוכן.
| ייצוג ב-JSON | 
|---|
| { "candidates": [ { object ( | 
TextCompletion
טקסט הפלט שמוחזר ממודל.
output
string
פלט בלבד. הטקסט שנוצר ומוחזר מהמודל.
safetyRatings[]
object (SafetyRating)
דירוגים של בטיחות התשובה.
לכל קטגוריה יש סיווג אחד לכל היותר.
citationMetadata
object (CitationMetadata)
פלט בלבד. פרטי הציטוט של output שנוצר על ידי המודל בTextCompletion הזה.
יכול להיות שהשדה הזה יאוכלס בפרטי שיוך לכל טקסט שכלול ב-output.
| ייצוג ב-JSON | 
|---|
| { "output": string, "safetyRatings": [ { object ( | 
SafetyFeedback
משוב על בטיחות לגבי בקשה שלמה.
השדה הזה מאוכלס אם התוכן בקלט או בתגובה נחסם בגלל הגדרות בטיחות. יכול להיות שלא יהיה SafetyFeedback לכל HarmCategory. כל SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את ההסתברות הכי נמוכה לפגיעה שצריך לאפשר כדי להחזיר תוצאה.
rating
object (SafetyRating)
דירוג הבטיחות נקבע לפי התוכן.
setting
object (SafetySetting)
הגדרות הבטיחות שחלות על הבקשה.
| ייצוג ב-JSON | 
|---|
| { "rating": { object ( |