שיטה: models.generateText
יצירת תשובה מהמודל על סמך הודעת קלט.
נקודת קצה
פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextפרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- User-u3b7m: models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שייאכפו ב-GenerateTextRequest.prompt
וב-GenerateTextResponse.candidates
. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory
. ה-API יחסום כל הנחיה ותגובה שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory
שצוין ב-safetySettings. אם לא צוין SafetySetting
ל-SafetyCategory
מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature
של Model
שהוחזר על ידי הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse
.
שיטה: models.countTextTokens
מריצה את כלי ההמרה לאסימונים של מודל על טקסט, ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensפרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. זהו מזהה לשימוש במודל.
השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
גוף התשובה
תשובה מ-models.countTextTokens
.
היא מחזירה את הערך tokenCount
של המודל במסגרת prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שה-model
ממיר את ה-prompt
אליהם.
תמיד מספר חיובי.
ייצוג ב-JSON |
---|
{ "tokenCount": integer } |
שיטה: models.generateMessage
יוצרת תשובה מהמודל בהינתן קלט MessagePrompt
.
נקודת קצה
לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageפרמטרים של נתיב
model
string
חובה. שם המודל לשימוש.
פורמט: name=models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. הקלט הטקסטואלי המובנה שניתן למודל כהוראות.
לאחר הזנת הנחיה, המודל יחזיר את ההודעה הבאה שהוא צופה שתישלח באותו דיון.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט.
הערכים יכולים לנוע מעל [0.0,1.0]
, כולל. ערך קרוב יותר ל-1.0
יניב תשובות מגוונות יותר, ואילו ערך קרוב יותר ל-0.0
יוביל בדרך כלל לתשובות פחות מפתיעות מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר הודעות התגובה שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8]
, כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
במדגם Nucleus נלקחת בחשבון הקבוצה הקטנה ביותר של אסימונים שסכום הסבירות שלהם הוא לפחות topP
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר.
גוף התשובה
התגובה מהמודל.
כולל הודעות של מועמדים והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
candidates[]
object (Message
)
הודעות תגובה של המועמדים מהמודל.
messages[]
object (Message
)
היסטוריית השיחות שבה המערכת משתמשת.
filters[]
object (ContentFilter
)
קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.
כאן מצוין אילו SafetyCategory
(ים) חסמו מועמד בתשובה הזו, את HarmProbability
הנמוכים ביותר שגרמו לחסימה, ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
שיטה: models.countMessageTokens
מריצה את כלי ההמרה לאסימונים של מודל על מחרוזת ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensפרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. זהו מזהה לשימוש במודל.
השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. ההנחיה, שמספר האסימונים שלה צריך להחזיר.
גוף התשובה
תשובה של models.countMessageTokens
.
הפונקציה מחזירה את הערך של tokenCount
של המודל עבור prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שה-model
ממיר את ה-prompt
אליהם.
תמיד מספר חיובי.
ייצוג JSON |
---|
{ "tokenCount": integer } |
שיטה: models.embedText
יוצרת הטמעה מהמודל כשמוצגת הודעת קלט.
נקודת קצה
פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextפרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
text
string
זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.
שיטה: models.batchEmbedText
יוצרת הטמעות מרובות מהמודל בעל טקסט קלט בקריאה סינכרונית.
נקודת קצה
פרסום https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextפרמטרים של נתיב
model
string
חובה. השם של Model
שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001. הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
texts[]
string
זה שינוי אופציונלי. טקסטים חופשיים של הקלט שהמודל יהפוך להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, שמתוכן תופסת שגיאה.
requests[]
object (EmbedTextRequest
)
זה שינוי אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהערכים texts
או requests
.
גוף התשובה
התגובה ל-EmbedTextRequest.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
embeddings[]
object (Embedding
)
פלט בלבד. הטמעות ההטמעות שנוצרו מטקסט הקלט.
ייצוג JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
בקשה לקבלת הטמעה של טקסט מהמודל.
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
זה שינוי אופציונלי. טקסט הקלט בפורמט חופשי שהמודל יהפוך להטמעה.
ייצוג ב-JSON |
---|
{ "model": string, "text": string } |
שיטה: AdjustModels.generateText
יצירת תשובה מהמודל על סמך הודעת קלט.
נקודת קצה
לשלוח https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextפרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא tunedModels/{tunedmodel}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שייאכפו ב-GenerateTextRequest.prompt
וב-GenerateTextResponse.candidates
. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory
. ה-API יחסום כל הנחיה ותגובה שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory
שצוין ב-safetySettings. אם לא צוין SafetySetting
ל-SafetyCategory
מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם צוין, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature
של Model
שהוחזר על ידי הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקלפי עליונה.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse
.
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.
ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.
reason
enum (BlockedReason
)
הסיבה שבגללה התוכן נחסם במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.
ייצוג JSON |
---|
{
"reason": enum ( |
BlockedReason
רשימה של סיבות אפשריות לחסימת תוכן.
טיפוסים בני מנייה (enum) | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
לא צוינה סיבה לחסימה. |
SAFETY |
התוכן נחסם על ידי הגדרות הבטיחות. |
OTHER |
התוכן נחסם, אבל לסיבה אין שיוך לקטגוריה. |
הטמעה
רשימה של מספרים שמייצגים את הטמעת הנתונים.
value[]
number
ערכי ההטמעה.
ייצוג ב-JSON |
---|
{ "value": [ number ] } |
הודעה
היחידה הבסיסית של טקסט מובנה.
Message
כולל author
ואת content
של Message
.
השדה author
משמש לתיוג הודעות כשהן מועברות למודל כטקסט.
content
string
חובה. תוכן הטקסט של Message
המובנה.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של content
שנוצר על ידי מודל מופיעים ב-Message
הזה.
אם Message
זה נוצר כפלט מהמודל, אפשר לאכלס את השדה הזה בפרטי שיוך עבור כל טקסט שנכלל ב-content
. בשדה הזה נעשה שימוש רק בפלט.
ייצוג ב-JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
כל הטקסט של הקלט המובנה שמועבר למודל כהנחיה.
MessagePrompt
מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות פלט או קלט של משתמשים שמעודדים את המודל להגיב בדרכים שונות, ואת היסטוריית השיחות או רשימת ההודעות שמייצגות את פניות המתחלפות בין המשתמש לבין המודל.
context
string
זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי הבסיס לתשובה.
אם השדה לא ריק, הערך של context
יתווסף קודם למודל לפני examples
ו-messages
. כשמשתמשים ב-context
, חשוב לציין אותו בכל בקשה כדי לשמור על רציפות.
השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגום הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן טענה, סיווג הרגש כ'שמחה', 'עצובה' או 'ניטרלית').
כל מה שנכלל בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל והבקשה לקלט נקטעת.
examples[]
object (Example
)
זה שינוי אופציונלי. דוגמאות למה שהמודל צריך ליצור.
זה כולל גם קלט של משתמשים וגם את התגובה שהמודל צריך לחקות.
המערכת מתייחסת ל-examples
האלה באופן זהה להודעות בשיחה, מלבד העובדה שהן מקבלות עדיפות על פני ההיסטוריה ב-messages
: אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל, הקלט יקוצר. הפריטים יוסרו מ-messages
לפני examples
.
messages[]
object (Message
)
חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי תאריך.
הפונקציה מחברת בין שני מחברים.
אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages
.
דוגמה
GenerateTextResponse
התשובה מהמודל, כולל השלמות של מועמדים.
candidates[]
object (TextCompletion
)
התשובות של המועמדים מהמודל.
filters[]
object (ContentFilter
)
קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.
כאן מצוינים קובצי ה-SafetyCategory
שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability
שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו. הנתון הזה מציין את השינוי הקטן ביותר ב-SafetySettings
שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.
החסימה מוגדרת על ידי ה-SafetySettings
בבקשה (או על ידי SafetySettings
ברירת המחדל של ה-API).
safetyFeedback[]
object (SafetyFeedback
)
מחזירה כל משוב בנושא בטיחות שקשור לסינון תוכן.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
טקסט פלט שהוחזר ממודל.
output
string
פלט בלבד. הטקסט שנוצר והוחזר מהמודל.
safetyRatings[]
object (SafetyRating
)
דירוגים של בטיחות התגובה.
לכל קטגוריה יש דירוג אחד לכל היותר.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של output
שנוצר על ידי מודל מופיעים ב-TextCompletion
הזה.
השדה הזה עשוי להיות מאוכלס במידע שיוך לכל טקסט שכלול ב-output
.
ייצוג JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
משוב בנושא בטיחות לבקשה כולה.
השדה הזה מאוכלס אם תוכן בקלט ו/או בתגובה חסום בגלל הגדרות בטיחות. יכול להיות שהמשוב SafetyFeedback לא קיים לכל קטגוריית HarmCategory. כל משוב בנושא SafetyFeedback יחזיר את הגדרות הבטיחות שבהן נעשה שימוש בבקשה, וגם את סבירות הפגיעה הנמוכה ביותר שמותרת כדי להחזיר תוצאה.
rating
object (SafetyRating
)
דירוג הבטיחות נמדד לפי התוכן.
setting
object (SafetySetting
)
הגדרות הבטיחות שחלות על הבקשה.
ייצוג JSON |
---|
{ "rating": { object ( |