שיטה: models.generateText
יוצרת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- encoding-u3b7m: models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שייאכפו ב-GenerateTextRequest.prompt
וב-GenerateTextResponse.candidates
. לכל סוג של SafetyCategory
יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום בקשות ותשובות שלא יעמדו בערכי הסף שהוגדרו על ידי ההגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory
שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting
עבור SafetyCategory
מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.
stopSequences[]
string
הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. שליטה ברנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature
של Model
שהחזיר את הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.
הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם המדיניות לא מוגדרת, ברירת המחדל תהיה 'OutputTokenLimit' שצוין במפרט של Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
דגימות מסוג 'אליפות במובילות' לוקחות בחשבון את קבוצת topK
האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse
.
שיטה: models.countTextTokens
מריצה את כלי ההמרה לאסימונים של מודל על טקסט, ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
גוף התשובה
תשובה של models.countTextTokens
.
היא מחזירה את הערך tokenCount
של המודל במסגרת prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר האסימונים שאליהם model
מוסיף את האסימון prompt
.
תמיד לא שלילי.
ייצוג JSON |
---|
{ "tokenCount": integer } |
שיטה: models.generateMessage
יוצרת תשובה מהמודל בהינתן קלט MessagePrompt
.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש.
פורמט: name=models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. הקלט הטקסטואלי המובנה שניתן למודל כהנחיה.
בהתאם להנחיה, המודל יחזיר את ההודעה הבאה בדיון שהוא חוזה.
temperature
number
זה שינוי אופציונלי. שליטה ברנדומיזציה של הפלט.
הערכים יכולים לנוע מעל [0.0,1.0]
, כולל. ערך קרוב יותר ל-1.0
יניב תשובות מגוונות יותר. לעומת זאת, ערך קרוב יותר ל-0.0
בדרך כלל יניב תשובות פחות מפתיעות מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר הודעות התגובה שנוצרו שיש להחזיר.
הערך הזה חייב להיות בין [1, 8]
, כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
דגימת גרעין מביאה בחשבון את קבוצת האסימונים הקטנה ביותר שסכום ההסתברות שלהם הוא topP
לפחות.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
דגימת מסוג 'Top-K' מביאה בחשבון את קבוצת topK
האסימונים בעלי הסבירות הגבוהה ביותר.
גוף התשובה
התשובה מהמודל.
כולל הודעות של מועמדים והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
candidates[]
object (Message
)
הודעות תגובה של המועמדים מהמודל.
messages[]
object (Message
)
היסטוריית השיחות שהמודל משתמש בה.
filters[]
object (ContentFilter
)
קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.
כאן מצוין אילו SafetyCategory
(ים) חסמו מועמד בתשובה הזו, את HarmProbability
הנמוכים ביותר שגרמו לחסימה, ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
שיטה: models.countMessageTokens
מריצה את כלי ההמרה לאסימונים של מודל על מחרוזת ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. ההנחיה, שמספר האסימונים שלה צריך להחזיר.
גוף התשובה
תשובה של models.countMessageTokens
.
היא מחזירה את הערך tokenCount
של המודל במסגרת prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר האסימונים שאליהם model
מוסיף את האסימון prompt
.
תמיד לא שלילי.
ייצוג JSON |
---|
{ "tokenCount": integer } |
שיטה: models.embedText
יוצרת הטמעה מהמודל כשמוצגת הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
text
string
זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
שיטה: models.batchEmbedText
יוצרת הטמעות מרובות מהמודל בעל טקסט קלט בקריאה סינכרונית.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
פרמטרים של נתיב
model
string
חובה. שם ה-Model
שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001 הוא מופיע בצורה models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
texts[]
string
זה שינוי אופציונלי. טקסטים חופשיים של הקלט שהמודל יהפוך להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ומתווספת להן שגיאה.
requests[]
object (EmbedTextRequest
)
זה שינוי אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהערכים texts
או requests
.
גוף התשובה
התגובה ל-EmbedTextRequest.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
embeddings[]
object (Embedding
)
פלט בלבד. הטמעות ההטמעות שנוצרו מטקסט הקלט.
ייצוג JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
בקשה לקבלת הטמעה של טקסט מהמודל.
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
ייצוג JSON |
---|
{ "model": string, "text": string } |
שיטה: formattedModels.generateText
יוצרת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- encoding-u3b7m: tunedModels/{tunedmodel}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שייאכפו ב-GenerateTextRequest.prompt
וב-GenerateTextResponse.candidates
. לכל סוג של SafetyCategory
יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום בקשות ותשובות שלא יעמדו בערכי הסף שהוגדרו על ידי ההגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory
שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting
עבור SafetyCategory
מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.
stopSequences[]
string
הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. שליטה ברנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature
של Model
שהחזיר את הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.
הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם המדיניות לא מוגדרת, ברירת המחדל תהיה 'OutputTokenLimit' שצוין במפרט של Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
דגימות מסוג 'אליפות במובילות' לוקחות בחשבון את קבוצת topK
האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse
.
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.
ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.
reason
enum (BlockedReason
)
הסיבה לחסימת התוכן במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.
ייצוג JSON |
---|
{
"reason": enum ( |
BlockedReason
רשימה של סיבות אפשריות לחסימת תוכן.
טיפוסים בני מנייה (enum) | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
לא צוינה סיבה לחסימה. |
SAFETY |
התוכן נחסם על ידי הגדרות הבטיחות. |
OTHER |
התוכן נחסם, אבל לסיבה אין שיוך לקטגוריה. |
הטמעה
רשימה של פריטים צפופים שמייצגים את ההטמעה.
value[]
number
ערכי ההטמעה.
ייצוג JSON |
---|
{ "value": [ number ] } |
הודעה
היחידה הבסיסית של טקסט מובנה.
Message
כולל את author
ואת content
של Message
.
השדה author
משמש לתיוג הודעות כשהן מוזנות למודל כטקסט.
author
string
זה שינוי אופציונלי. המחבר של ההודעה הזו.
המפתח הזה משמש לתיוג התוכן של ההודעה כשמזינים אותה למודל כטקסט.
המחבר יכול להיות כל מחרוזת אלפאנומרית.
content
string
חובה. תוכן הטקסט של Message
המובנה.
citationMetadata
object (CitationMetadata
)
פלט בלבד. מידע על ציטוטים ביבליוגרפיים של content
שנוצר על ידי המודל ב-Message
הזה.
אם Message
זה נוצר כפלט מהמודל, אפשר לאכלס את השדה הזה בפרטי שיוך עבור כל טקסט שנכלל ב-content
. בשדה הזה נעשה שימוש רק בפלט.
ייצוג JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
כל הטקסט של הקלט המובנה שמועבר למודל כהנחיה.
MessagePrompt
מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות פלט או קלט של משתמשים שמעודדים את המודל להגיב בדרכים שונות, ואת היסטוריית השיחות או רשימת ההודעות שמייצגות את פניות המתחלפות בין המשתמש לבין המודל.
context
string
זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי הבסיס לתשובה.
אם השדה לא ריק, הערך של context
יתווסף קודם למודל לפני examples
ו-messages
. כדי לשמור על המשכיות בתהליך, חשוב למלא את context
בכל בקשה.
השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולעזור בתשובות. דוגמאות: "תרגום הביטוי מאנגלית לצרפתית". או "לאחר הצהרה, סווגו את הרגש כשמח, עצוב או ניטרלי".
כל מה שנכלל בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל והבקשה לקלט נקטעת.
examples[]
object (Example
)
זה שינוי אופציונלי. דוגמאות למה שהמודל צריך ליצור.
זה כולל גם קלט של משתמשים וגם את התגובה שהמודל צריך לחקות.
ההתייחסות לexamples
האלה זהה לזו של הודעות בשיחה, אבל הן מקבלות עדיפות על פני ההיסטוריה בmessages
: אם גודל הקלט הכולל חורג מה-inputTokenLimit
של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages
לפני examples
.
messages[]
object (Message
)
חובה. תמונת מצב של היסטוריית השיחות מהזמן האחרון, ממוינת בסדר כרונולוגי.
הפונקציה מחברת בין שני מחברים.
אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages
.
דוגמה
GenerateTextResponse
התשובות מהמודל, כולל השלמות של המועמדים.
candidates[]
object (TextCompletion
)
התשובות של המועמדים מהמודל.
filters[]
object (ContentFilter
)
קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.
כאן מצוין אילו SafetyCategory
(ים) חסמו מועמד בתשובה הזו, את HarmProbability
הנמוכים ביותר שגרמו לחסימה, ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו. הנתון הזה מציין את השינוי הקטן ביותר ב-SafetySettings
שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.
החסימה מוגדרת על ידי ה-SafetySettings
בבקשה (או על ידי SafetySettings
ברירת המחדל של ה-API).
safetyFeedback[]
object (SafetyFeedback
)
מחזירה כל משוב בנושא בטיחות שקשור לסינון תוכן.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
טקסט פלט שהוחזר ממודל.
output
string
פלט בלבד. הטקסט שנוצר שהוחזר מהמודל.
safetyRatings[]
object (SafetyRating
)
דירוגים של בטיחות התשובה.
לכל קטגוריה יש דירוג אחד לכל היותר.
citationMetadata
object (CitationMetadata
)
פלט בלבד. מידע על ציטוטים ביבליוגרפיים של output
שנוצר על ידי המודל ב-TextCompletion
הזה.
אפשר לאכלס את השדה הזה בפרטי שיוך (Attribution) של כל טקסט שנכלל ב-output
.
ייצוג JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
משוב בנושא בטיחות לכל הבקשה.
השדה הזה יאוכלס אם התוכן בקלט או בתגובה חסום עקב הגדרות בטיחות. יכול להיות שהמשוב SafetyFeedback לא קיים לכל קטגוריית HarmCategory. כל משוב בנושא SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את סבירות הפגיעה הנמוכה ביותר שמותרת כדי להחזיר תוצאה.
rating
object (SafetyRating
)
דירוג הבטיחות שנבדק על סמך התוכן.
setting
object (SafetySetting
)
הגדרות הבטיחות הוחלו על הבקשה.
ייצוג JSON |
---|
{ "rating": { object ( |