שיטה: models.generateText
יוצרת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- encoding-u3b7m: models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
לאכיפה בGenerateTextRequest.prompt
ובGenerateTextResponse.candidates
. לכל סוג של SafetyCategory
יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום הצעות ותשובות שלא יעמדו בערכי הסף שנקבעו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory
שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting
עבור SafetyCategory
מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.
stopSequences[]
string
הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם השדה הזה מוגדר, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature
של Model
שהחזיר את הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.
הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם המדיניות לא מוגדרת, ברירת המחדל תהיה exportTokenLimit שצוין במפרט של Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.
דגימת הדגלים מבוססת על סט של topK
האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse
.
שיטה: models.countTextTokens
מריצה את כלי ההמרה לאסימונים של מודל על טקסט, ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
גוף התשובה
תשובה של models.countTextTokens
.
היא מחזירה את הערך tokenCount
של המודל במסגרת prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר האסימונים שאליהם model
מוסיף את האסימון prompt
.
תמיד לא שלילי.
ייצוג JSON |
---|
{ "tokenCount": integer } |
שיטה: models.generateMessage
יוצרת תשובה מהמודל בהינתן קלט MessagePrompt
.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש.
פורמט: name=models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. הקלט הטקסטואלי המובנה שניתן למודל כהנחיה.
בהתאם להנחיה, המודל יחזיר את ההודעה הבאה בדיון שהוא חוזה.
temperature
number
זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט.
הערכים יכולים לנוע מעל [0.0,1.0]
, כולל. ערך קרוב יותר ל-1.0
יניב תשובות מגוונות יותר. לעומת זאת, ערך קרוב יותר ל-0.0
בדרך כלל יניב תשובות פחות מפתיעות מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר הודעות התגובה שנוצרו שיש להחזיר.
הערך הזה חייב להיות בטווח של [1, 8]
, כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
המודל משתמש בדגימת גרעין, לפי חלוקה בקנטקי ולהפך.
דגימת גרעין מביאה בחשבון את קבוצת האסימונים הקטנה ביותר שסכום ההסתברות שלהם הוא topP
לפחות.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.
דגימת הדגלים מבוססת על סט של topK
האסימונים בעלי הסבירות הגבוהה ביותר.
גוף התשובה
התשובה מהמודל.
כולל הודעות של מועמדים והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
candidates[]
object (Message
)
הודעות תגובה של המועמדים מהמודל.
messages[]
object (Message
)
היסטוריית השיחות שהמודל משתמש בה.
filters[]
object (ContentFilter
)
קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.
כאן מצוין אילו SafetyCategory
(ים) חסמו מועמד בתשובה הזו, את HarmProbability
הנמוכים ביותר שגרמו לחסימה ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
שיטה: models.countMessageTokens
מריצה את כלי ההמרה לאסימונים של מודל על מחרוזת ומחזירה את מספר האסימונים.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
פרמטרים של נתיב
model
string
חובה. שם המשאב של המודל. המזהה הזה משמש את המודל.
השם הזה צריך להיות תואם לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. ההנחיה, שמספר האסימונים שלה צריך להחזיר.
גוף התשובה
תשובה של models.countMessageTokens
.
היא מחזירה את הערך tokenCount
של המודל במסגרת prompt
.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
tokenCount
integer
מספר האסימונים שאליהם model
מוסיף את האסימון prompt
.
תמיד לא שלילי.
ייצוג JSON |
---|
{ "tokenCount": integer } |
שיטה: models.embedText
יוצרת הטמעה מהמודל כשמוצגת הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
text
string
זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
גוף התשובה
התגובה ל-EmbedTextRequest.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
embedding
object (Embedding
)
פלט בלבד. ההטמעה שנוצרה מטקסט הקלט.
ייצוג JSON |
---|
{
"embedding": {
object ( |
שיטה: models.batchEmbedText
יוצרת הטמעות מרובות מהמודל בעל טקסט קלט בקריאה סינכרונית.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
פרמטרים של נתיב
model
string
חובה. שם ה-Model
שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001 הוא מופיע בצורה models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
texts[]
string
זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה. המגבלה הנוכחית היא 100 הודעות טקסט, ומתווספת להן שגיאה.
requests[]
object (EmbedTextRequest
)
זה שינוי אופציונלי. הטמעת בקשות באצווה. אפשר להגדיר רק אחד מהערכים texts
או requests
.
גוף התשובה
התגובה ל-EmbedTextRequest.
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכיל נתונים במבנה הבא:
embeddings[]
object (Embedding
)
פלט בלבד. ההטמעות (embeddings) שנוצרו מטקסט הקלט.
ייצוג JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
בקשה לקבלת הטמעה של טקסט מהמודל.
ייצוג JSON |
---|
{ "model": string, "text": string } |
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
זה שינוי אופציונלי. טקסט הקלט החופשי שהמודל יהפוך להטמעה.
שיטה: formattedModels.generateText
יוצרת תשובה מהמודל בהינתן הודעת קלט.
נקודת קצה
לשלוח
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שישמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 לשדרגModels/sentence- User-u3b7m: tunedModels/{tunedmodel}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט החופשי שניתן למודל כהנחיה.
בהתאם להנחיה, המודל ייצור תגובת TextCompletion שהוא חוזה כהשלמה של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
לאכיפה בGenerateTextRequest.prompt
ובGenerateTextResponse.candidates
. לכל סוג של SafetyCategory
יכולה להיות הגדרה אחת לכל היותר. ה-API יחסום הצעות ותשובות שלא יעמדו בערכי הסף שנקבעו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל לכל SafetyCategory
שצוינו בהגדרות הבטיחות. אם לא צוין SafetySetting
עבור SafetyCategory
מסוים ברשימה, ה-API ישתמש בהגדרת ברירת המחדל של בטיחות לקטגוריה הזו. קטגוריות פגיעה HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXILOCATION, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDtrial, HARM_CATEGORY_DANGEROUS נתמכות בשירות הטקסט.
stopSequences[]
string
הקבוצה של רצפי תווים (עד 5) שיפסיקו ליצור פלט. אם השדה הזה מוגדר, ה-API יפסיק להופיע בפעם הראשונה של רצף עצירה. רצף העצירה לא ייכלל כחלק מהתשובה.
temperature
number
זה שינוי אופציונלי. המדיניות קובעת את רמת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.temperature
של Model
שהחזיר את הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ערך קרוב ל-1.0 יוביל לתשובות מגוונות ויצירתיות יותר. לעומת זאת, ערך קרוב ל-0.0 בדרך כלל יניב תשובות ישירות יותר מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר התגובות שנוצרו להחזרה.
הערך הזה חייב להיות בין [1, 8], כולל. אם המדיניות לא מוגדרת, ברירת המחדל תהיה 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם המדיניות לא מוגדרת, ברירת המחדל תהיה exportTokenLimit שצוין במפרט של Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שיש להביא בחשבון במהלך הדגימה.
במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שהמערכת תתייחס רק לאסימונים עם הסיכוי הכי גבוה. דגימה מסוג 'אליפות גבוהה' מגבילה באופן ישיר את המספר המקסימלי של אסימונים שצריך להשתמש בהם, ואילו דגימת ה-Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_p
של Model
שהחזיר את הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון במהלך הדגימה.
במודל נעשה שימוש בשילוב של דגימת גרעין ו-Top-k.
דגימת הדגלים מבוססת על סט של topK
האסימונים בעלי הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. כדאי לעיין במאפיין Model.top_k
של Model
שהחזיר את הפונקציה getModel
.
גוף התשובה
אם הפעולה בוצעה ללא שגיאות, גוף התגובה יכלול מופע של GenerateTextResponse
.
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה יחידה.
ContentFilter מכיל סיבה ומחרוזת תומכת אופציונלית. יכול להיות שהסיבה לא צוינה.
ייצוג JSON |
---|
{
"reason": enum ( |
reason
enum (BlockedReason
)
הסיבה לחסימת התוכן במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את התנהגות הסינון בפירוט רב יותר.
BlockedReason
רשימה של סיבות אפשריות לחסימת תוכן.
טיפוסים בני מנייה (enum) | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
לא צוינה סיבה לחסימה. |
SAFETY |
התוכן נחסם על ידי הגדרות הבטיחות. |
OTHER |
התוכן נחסם, אבל לסיבה אין שיוך לקטגוריה. |
הטמעה
רשימה של פריטים צפופים שמייצגים את ההטמעה.
ייצוג JSON |
---|
{ "value": [ number ] } |
value[]
number
ערכי ההטמעה.
הודעה
היחידה הבסיסית של טקסט מובנה.
Message
כולל את author
ואת content
של Message
.
השדה author
משמש לתיוג הודעות כשהן מוזנות למודל כטקסט.
ייצוג JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
author
string
זה שינוי אופציונלי. המחבר של ההודעה הזו.
המפתח הזה משמש לתיוג התוכן של ההודעה כשמזינים אותה למודל כטקסט.
המחבר יכול להיות כל מחרוזת אלפאנומרית.
content
string
חובה. תוכן הטקסט של Message
המובנה.
citationMetadata
object (CitationMetadata
)
פלט בלבד. מידע על ציטוטים ביבליוגרפיים של content
שנוצר על ידי המודל ב-Message
הזה.
אם Message
זה נוצר כפלט מהמודל, אפשר לאכלס את השדה הזה בפרטי שיוך עבור כל טקסט שנכלל ב-content
. השדה הזה משמש רק בפלט.
MessagePrompt
כל הטקסט של הקלט המובנה שמועבר למודל כהנחיה.
MessagePrompt
מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות פלט או קלט של משתמשים שמעודדים את המודל להגיב בדרכים שונות, ואת היסטוריית השיחות או רשימת ההודעות שמייצגות את פניות המתחלפות בין המשתמש לבין המודל.
ייצוג JSON |
---|
{ "context": string, "examples": [ { object ( |
context
string
זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי להניח את התשובה.
אם השדה לא ריק, הערך של context
יתווסף קודם למודל לפני examples
ו-messages
. כדי לשמור על המשכיות בתהליך, חשוב למלא את context
בכל בקשה.
השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולעזור בתשובות. דוגמאות: "תרגום הביטוי מאנגלית לצרפתית". או "לאחר הצהרה, סווגו את הרגש כשמח, עצוב או ניטרלי".
כל מה שנכלל בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל והבקשה לקלט נקטעת.
examples[]
object (Example
)
זה שינוי אופציונלי. דוגמאות למה שהמודל צריך ליצור.
זה כולל גם קלט של משתמשים וגם את התגובה שהמודל צריך לחקות.
ההתייחסות לexamples
האלה זהה לזו של הודעות בשיחה, אבל הן מקבלות קדימות על פני ההיסטוריה בmessages
: אם גודל הקלט הכולל חורג מה-inputTokenLimit
של המודל, הקלט ייחתך. הפריטים יוסרו מ-messages
לפני examples
.
messages[]
object (Message
)
חובה. תמונת מצב של היסטוריית השיחות מהזמן האחרון, ממוינת בסדר כרונולוגי.
הפונקציה מחברת בין שני מחברים.
אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages
.
דוגמה
דוגמה של קלט/פלט שמשמשת להוראה של המודל.
הוא מדגים איך המודל צריך להגיב או לעצב את התשובה שלו.
ייצוג JSON |
---|
{ "input": { object ( |
input
object (Message
)
חובה. דוגמה לקלט Message
מהמשתמש.
output
object (Message
)
חובה. דוגמה לפלט שהמודל צריך לקבל בהינתן הקלט.
GenerateTextResponse
התשובות מהמודל, כולל השלמות של המועמדים.
ייצוג JSON |
---|
{ "candidates": [ { object ( |
candidates[]
object (TextCompletion
)
התשובות של המועמדים מהמודל.
filters[]
object (ContentFilter
)
קבוצת מטא-נתונים לסינון תוכן של ההנחיה והתשובה.
כאן מצוין אילו SafetyCategory
(ים) חסמו מועמד בתשובה הזו, את HarmProbability
הנמוכים ביותר שגרמו לחסימה ואת ההגדרה HarmThreshold בשביל הקטגוריה הזו. הנתון הזה מציין את השינוי הקטן ביותר ב-SafetySettings
שנדרש כדי לבטל את החסימה של תגובה אחת לפחות.
החסימה מוגדרת על ידי ה-SafetySettings
בבקשה (או על ידי SafetySettings
ברירת המחדל של ה-API).
safetyFeedback[]
object (SafetyFeedback
)
מחזירה כל משוב בנושא בטיחות שקשור לסינון תוכן.
TextCompletion
טקסט פלט שהוחזר ממודל.
ייצוג JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
output
string
פלט בלבד. הטקסט שנוצר שהוחזר מהמודל.
safetyRatings[]
object (SafetyRating
)
דירוגים של בטיחות התשובה.
לכל קטגוריה יש דירוג אחד לכל היותר.
citationMetadata
object (CitationMetadata
)
פלט בלבד. מידע על ציטוטים ביבליוגרפיים של output
שנוצר על ידי המודל ב-TextCompletion
הזה.
אפשר לאכלס את השדה הזה בפרטי שיוך (Attribution) של כל טקסט שכלול ב-output
.
SafetyFeedback
משוב בנושא בטיחות לכל הבקשה.
השדה הזה יאוכלס אם התוכן בקלט או בתגובה חסום עקב הגדרות בטיחות. יכול להיות שהמשוב SafetyFeedback לא קיים לכל קטגוריית HarmCategory. כל משוב בנושא SafetyFeedback יחזיר את הגדרות הבטיחות שבהן הבקשה משתמשת, וגם את סבירות הפגיעה הנמוכה ביותר שמותרת כדי להחזיר תוצאה.
ייצוג JSON |
---|
{ "rating": { object ( |
rating
object (SafetyRating
)
דירוג הבטיחות נמדד לפי התוכן.
setting
object (SafetySetting
)
הגדרות הבטיחות הוחלו על הבקשה.