שיטה: models.generateText
יצירת תגובה מהמודל על סמך הודעת קלט.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שיחולו על GenerateTextRequest.prompt
ו-GenerateTextResponse.candidates
. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory
. ה-API יחסום כל הנחיות ותשובות שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory
שצוין ב-safetySettings. אם לא צוין SafetySetting
ל-SafetyCategory
מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם יצוין, ה-API יפסיק בהופעה הראשונה של רצף עצירה. רצף העצירות לא ייכלל בתשובה.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature
של Model
שהוחזר על ידי הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ככל שהערך קרוב יותר ל-1.0, התשובות יהיו מגוונות ויצירתיות יותר. לעומת זאת, ככל שהערך קרוב יותר ל-0.0, התשובות מהמודל יהיו בדרך כלל ישירות יותר.
candidateCount
integer
זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. הדגימה Top-k מגבילה באופן ישיר את המספר המקסימלי של האסימונים שצריך להביא בחשבון, בעוד שהדגימה Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_p
של Model
שהוחזר על ידי הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_k
של Model
שהוחזר על ידי הפונקציה getModel
.
גוף התשובה
אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse
.
שיטה: models.countTextTokens
הפונקציה מפעילה את ה-tokenizer של מודל על טקסט ומחזירה את מספר האסימונים.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. שם המשאב של הדגם. זהו מזהה לשימוש במודל.
השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
גוף התשובה
תשובה מ-models.countTextTokens
.
הפונקציה מחזירה את הערך של tokenCount
של המודל עבור prompt
.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שה-model
ממיר את ה-prompt
אליהם.
תמיד מספר חיובי.
ייצוג ב-JSON |
---|
{ "tokenCount": integer } |
שיטה: models.generateMessage
יצירת תגובה מהמודל על סמך קלט MessagePrompt
.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. שם המודל שבו רוצים להשתמש.
פורמט: name=models/{model}
הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. הקלט הטקסטואלי המובנה שניתן למודל כהוראה.
לאחר הזנת הנחיה, המודל יחזיר את ההודעה הבאה שהוא צופה שתישלח באותו דיון.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט.
הערכים יכולים לנוע בין 0 ל-[0.0,1.0]
, כולל. ערך קרוב יותר ל-1.0
יניב תשובות מגוונות יותר, ואילו ערך קרוב יותר ל-0.0
יוביל בדרך כלל לתשובות פחות מפתיעות מהמודל.
candidateCount
integer
זה שינוי אופציונלי. מספר הודעות התגובה שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8]
, כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
במדגם Nucleus נלקחת בחשבון הקבוצה הקטנה ביותר של אסימונים שסכום הסבירות שלהם הוא לפחות topP
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר.
גוף התשובה
התשובה מהמודל.
הנתונים האלה כוללים הודעות מועמדות והיסטוריית שיחות בצורת הודעות בסדר כרונולוגי.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
candidates[]
object (Message
)
הודעות של תשובות מועמדות מהמודל.
messages[]
object (Message
)
היסטוריית השיחות שבה השתמש המודל.
filters[]
object (ContentFilter
)
קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.
כאן מצוינים קובצי ה-SafetyCategory
שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability
שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו.
ייצוג ב-JSON |
---|
{ "candidates": [ { object ( |
שיטה: models.countMessageTokens
הפונקציה מפעילה את ה-tokenizer של מודל במחרוזת ומחזירה את מספר האסימונים.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. שם המשאב של הדגם. זהו מזהה לשימוש במודל.
השם הזה צריך להתאים לשם הדגם שהוחזר על ידי השיטה models.list
.
פורמט: models/{model}
הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (MessagePrompt
)
חובה. ההנחיה, שמספר האסימונים שלה צריך להוחזר.
גוף התשובה
תשובה מ-models.countMessageTokens
.
הפונקציה מחזירה את הערך של tokenCount
של המודל עבור prompt
.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
tokenCount
integer
מספר הטוקנים שה-model
ממיר את ה-prompt
אליהם.
תמיד מספר חיובי.
ייצוג ב-JSON |
---|
{ "tokenCount": integer } |
שיטה: models.embedText
יצירת הטמעה (embedding) מהמודל על סמך הודעת קלט.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}. הוא מופיע בפורמט models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
text
string
זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.
שיטה: models.batchEmbedText
יצירת מספר הטמעות (embeddings) מהמודל על סמך טקסט קלט בשיחה סינכרונית.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. השם של Model
שישמש ליצירת ההטמעה. דוגמאות: models/embedding-gecko-001. הפורמט הוא models/{model}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
texts[]
string
זה שינוי אופציונלי. טקסטים חופשיים של קלט שהמודל יהפוך להטמעה (embedding). המגבלה הנוכחית היא 100 טקסטים, מעבר למספר הזה תוצג שגיאה.
requests[]
object (EmbedTextRequest
)
זה שינוי אופציונלי. הטמעת הבקשות של האצווה. אפשר להגדיר רק אחד מבין texts
או requests
.
גוף התשובה
התגובה לבקשה מסוג EmbedTextRequest.
אם הפעולה מצליחה, גוף התגובה מכיל נתונים במבנה הבא:
embeddings[]
object (Embedding
)
פלט בלבד. ההטמעות (embeddings) שנוצרות מטקסט הקלט.
ייצוג ב-JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
שליחת בקשה לקבלת הטמעת טקסט מהמודל.
model
string
חובה. שם המודל לשימוש בפורמט model=models/{model}.
text
string
זה שינוי אופציונלי. טקסט הקלט הפתוח שהמודל יהפוך להטמעה.
ייצוג ב-JSON |
---|
{ "model": string, "text": string } |
שיטה: tunedModels.generateText
יצירת תגובה מהמודל על סמך הודעת קלט.
נקודת קצה
פוסטhttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
כתובת ה-URL משתמשת בתחביר של Transcoding של gRPC.
פרמטרים של נתיב
model
string
חובה. השם של Model
או TunedModel
שמשמש ליצירת ההשלמה. דוגמאות: models/text-bison-001 tunedModels/sentence-translator-u3b7m הפורמט הוא tunedModels/{tunedmodel}
.
גוף הבקשה
גוף הבקשה מכיל נתונים במבנה הבא:
prompt
object (TextPrompt
)
חובה. טקסט הקלט בטקסט חופשי שניתן למודל כהוראה.
בהתאם להנחיה, המודל ייצור תשובה של TextCompletion שהוא צופה כשלמות של טקסט הקלט.
safetySettings[]
object (SafetySetting
)
זה שינוי אופציונלי. רשימה של מופעים ייחודיים של SafetySetting
לחסימת תוכן לא בטוח.
שיחולו על GenerateTextRequest.prompt
ו-GenerateTextResponse.candidates
. אסור שיהיה יותר מהגדרה אחת לכל סוג SafetyCategory
. ה-API יחסום כל הנחיות ותשובות שלא עומדות בערכי הסף שהוגדרו בהגדרות האלה. הרשימה הזו מבטלת את הגדרות ברירת המחדל של כל SafetyCategory
שצוין ב-safetySettings. אם לא צוין SafetySetting
ל-SafetyCategory
מסוים ברשימה, ממשק ה-API ישתמש בהגדרת הבטיחות שמוגדרת כברירת מחדל לקטגוריה הזו. בשירות הטקסט יש תמיכה בקטגוריות הנזק HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL ו-HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
קבוצת רצפי התווים (עד 5) שיעזרו להפסיק את יצירת הפלט. אם יצוין, ה-API יפסיק בהופעה הראשונה של רצף עצירה. רצף העצירות לא ייכלל בתשובה.
temperature
number
זה שינוי אופציונלי. קובעת את מידת הרנדומיזציה של הפלט. הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.temperature
של Model
שהוחזר על ידי הפונקציה getModel
.
הערכים יכולים לנוע בין [0.0,1.0], כולל. ככל שהערך קרוב יותר ל-1.0, התשובות יהיו מגוונות ויצירתיות יותר. לעומת זאת, ככל שהערך קרוב יותר ל-0.0, התשובות מהמודל יהיו בדרך כלל ישירות יותר.
candidateCount
integer
זה שינוי אופציונלי. מספר התשובות שייווצרו ויוחזרו.
הערך צריך להיות בין [1, 8], כולל. אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל הוא 1.
maxOutputTokens
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שאפשר לכלול במועמד.
אם לא תגדירו את הערך, הערך שמוגדר כברירת מחדל יהיה outputTokenLimit שצוין במפרט Model
.
topP
number
זה שינוי אופציונלי. ההסתברות המצטברת המקסימלית של אסימונים שצריך להביא בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
האסימונים ממוינים לפי ההסתברויות שהוקצו להם, כך שנלקחים בחשבון רק האסימונים שהכי סביר שיופיעו. הדגימה Top-k מגבילה באופן ישיר את המספר המקסימלי של האסימונים שצריך להביא בחשבון, בעוד שהדגימה Nucleus מגבילה את מספר האסימונים על סמך ההסתברות המצטברת.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_p
של Model
שהוחזר על ידי הפונקציה getModel
.
topK
integer
זה שינוי אופציונלי. המספר המקסימלי של אסימונים שצריך לקחת בחשבון בזמן הדגימה.
המודל משתמש בשילוב של דגימת Top-k ודגימת nucleus.
הדגימה לפי Top-k מתייחסת לקבוצה של topK
האסימונים עם הסבירות הגבוהה ביותר. ברירת המחדל היא 40.
הערה: ערך ברירת המחדל משתנה בהתאם למודל. אפשר לעיין במאפיין Model.top_k
של Model
שהוחזר על ידי הפונקציה getModel
.
גוף התשובה
אם הפעולה מצליחה, גוף התגובה מכיל מופע של GenerateTextResponse
.
ContentFilter
מטא-נתונים של סינון תוכן שמשויכים לעיבוד של בקשה אחת.
ה-ContentFilter מכיל סיבה ומחרוזת תמיכה אופציונלית. יכול להיות שהסיבה לא תצוין.
reason
enum (BlockedReason
)
הסיבה שבגללה התוכן נחסם במהלך עיבוד הבקשה.
message
string
מחרוזת שמתארת את אופן הסינון בפירוט רב יותר.
ייצוג ב-JSON |
---|
{
"reason": enum ( |
BlockedReason
רשימת סיבות אפשריות לכך שהתוכן נחסם.
טיפוסים בני מנייה (enum) | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
לא צוינה סיבה לחסימה. |
SAFETY |
התוכן נחסם על ידי הגדרות הבטיחות. |
OTHER |
התוכן נחסם, אבל הסיבה לא מסווגת. |
הטמעה
רשימה של מספרים שמייצגים את הטמעת הנתונים.
value[]
number
ערכי ההטמעה.
ייצוג ב-JSON |
---|
{ "value": [ number ] } |
הודעה
היחידה הבסיסית של טקסט מובנה.
Message
כולל author
ואת content
של Message
.
השדה author
משמש לתיוג הודעות כשהן מועברות למודל כטקסט.
content
string
חובה. תוכן הטקסט של Message
המובנה.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של content
שנוצר על ידי מודל מופיעים בMessage
הזה.
אם השדה Message
נוצר כפלט מהמודל, יכול להיות שהוא יאוכלס במידע שיוך לכל טקסט שכלול ב-content
. השדה הזה משמש רק בפלט.
ייצוג ב-JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
כל טקסט הקלט המובנה שהועברו למודל כהוראות.
MessagePrompt
מכיל קבוצה מובנית של שדות שמספקים הקשר לשיחה, דוגמאות לזוגות של הודעות קלט/פלט של מודל שמכינות את המודל להגיב בדרכים שונות, והיסטוריית השיחה או רשימת ההודעות שמייצגות את התורות החלופיות של השיחה בין המשתמש למודל.
context
string
זה שינוי אופציונלי. טקסט שצריך לספק למודל קודם כדי להגדיר את התגובה.
אם השדה לא ריק, הערך של context
יועבר למודל לפני הערכים של examples
ו-messages
. כשמשתמשים ב-context
, חשוב לציין אותו בכל בקשה כדי לשמור על רציפות.
השדה הזה יכול להיות תיאור של ההנחיה שלכם למודל, כדי לספק הקשר ולכוון את התשובות. דוגמאות: "Translate the phrase from English to French" (תרגום הביטוי מאנגלית לצרפתית) או "Given a statement, classify the sentiment as happy, sad or neutral" (בהינתן טענה, סיווג הרגש כ'שמח', 'עצוב' או 'ניטרלי').
כל מה שכלול בשדה הזה יקבל עדיפות על פני היסטוריית ההודעות אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל ובקשת הקלט מקוצרת.
examples[]
object (Example
)
זה שינוי אופציונלי. דוגמאות לדברים שהמודל אמור ליצור.
הנתונים האלה כוללים גם את הקלט של המשתמש וגם את התגובה שהמודל צריך לחקות.
המערכת מתייחסת ל-examples
האלה באופן זהה להודעות של שיחות, מלבד העובדה שהן מקבלות עדיפות על פני ההיסטוריה ב-messages
: אם גודל הקלט הכולל חורג מ-inputTokenLimit
של המודל, הקלט יקוצר. הפריטים יוסרו מ-messages
לפני examples
.
messages[]
object (Message
)
חובה. תמונת מצב של היסטוריית השיחות האחרונות, ממוינת לפי תאריך.
תורנות בין שני מחברים.
אם הגודל הכולל של הקלט חורג מ-inputTokenLimit
של המודל, הקלט יקוצר: הפריטים הישנים ביותר יוסרו מ-messages
.
דוגמה
GenerateTextResponse
התשובה מהמודל, כולל השלמות של מועמדים.
candidates[]
object (TextCompletion
)
תשובות מועמדות מהמודל.
filters[]
object (ContentFilter
)
קבוצה של מטא-נתונים לסינון תוכן לטקסט של ההנחיה והתגובה.
כאן מצוינים קובצי ה-SafetyCategory
שחסמו את התגובה הזו, הערך הנמוך ביותר של HarmProbability
שהפעיל חסימה וההגדרה של HarmThreshold בקטגוריה הזו. זהו השינוי הקטן ביותר ב-SafetySettings
שיהיה צורך לבצע כדי לבטל את החסימה של לפחות תגובה אחת.
החסימה מוגדרת על ידי השדה SafetySettings
בבקשה (או SafetySettings
שמוגדרת כברירת מחדל ב-API).
safetyFeedback[]
object (SafetyFeedback
)
הפונקציה מחזירה משוב בנושאי בטיחות שקשור לסינון תוכן.
ייצוג ב-JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
טקסט פלט שהוחזר ממודל.
output
string
פלט בלבד. הטקסט שנוצר והוחזר מהמודל.
safetyRatings[]
object (SafetyRating
)
דירוגים של בטיחות התגובה.
אפשר להגדיר סיווג אחד לכל היותר לכל קטגוריה.
citationMetadata
object (CitationMetadata
)
פלט בלבד. פרטי הציטוט של output
שנוצר על ידי מודל מופיעים בTextCompletion
הזה.
השדה הזה עשוי להיות מאוכלס במידע שיוך לכל טקסט שכלול ב-output
.
ייצוג ב-JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
משוב בנושא בטיחות לגבי בקשה שלמה.
השדה הזה מאוכלס אם תוכן בקלט ו/או בתגובה חסום בגלל הגדרות הבטיחות. יכול להיות שהשדה SafetyFeedback לא קיים לכל קטגוריית נזק. כל הודעה של SafetyFeedback תחזיר את הגדרות הבטיחות שבהן השתמש הבקשה, וגם את הערך הנמוך ביותר של HarmProbability שצריך לאפשר כדי להחזיר תוצאה.
rating
object (SafetyRating
)
דירוג הבטיחות נקבע על סמך התוכן.
setting
object (SafetySetting
)
הגדרות הבטיחות שחלות על הבקשה.
ייצוג ב-JSON |
---|
{ "rating": { object ( |