Метод: models.generateText
Формирует ответ модели по введенному сообщению.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
Параметры пути
string
model
Обязательно. Имя Model
или TunedModel
, используемой для генерации автодополнения. Примеры: models/text-bison-001 tunedModels/sentence-translator-u3b7m . Имя имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( TextPrompt )
prompt
Обязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.
При получении подсказки модель сгенерирует ответ TextCompletion, который она прогнозирует как завершение вводимого текста.
safetySettings[]
object ( SafetySetting
)
Необязательно. Список уникальных экземпляров SafetySetting
для блокировки небезопасного контента.
которые будут применяться к GenerateTextRequest.prompt
и GenerateTextResponse.candidates
. Для каждого типа SafetyCategory
не должно быть более одного параметра. API будет блокировать любые запросы и ответы, не соответствующие пороговым значениям, установленным этими параметрами. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory
, указанной в параметре safetySettings. Если в списке для заданной SafetyCategory
отсутствует SafetySetting
, API будет использовать параметр безопасности по умолчанию для этой категории. В текстовом сервисе поддерживаются категории вреда: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
Набор последовательностей символов (до 5), которые остановят генерацию вывода. Если указано, API остановит работу при первом появлении стоп-последовательности. Эта стоп-последовательность не будет включена в ответ.
temperature
number
Необязательно. Управляет случайностью выходных данных. Примечание: значение по умолчанию зависит от модели, см. атрибут Model.temperature
Model
, возвращаемой функцией getModel
.
Значения могут находиться в диапазоне [0,0; 1,0] включительно. Значение, близкое к 1,0, будет давать более разнообразные и креативные ответы, в то время как значение, близкое к 0,0, обычно приводит к более прямолинейным ответам модели.
candidateCount
integer
Необязательно. Количество сгенерированных ответов для возврата.
Это значение должно находиться в диапазоне [1, 8] включительно. Если не задано, по умолчанию будет использоваться значение 1.
maxOutputTokens
integer
Необязательно. Максимальное количество токенов для включения в кандидата.
Если не установлено, по умолчанию будет использоваться outputTokenLimit, указанный в спецификации Model
.
number
topP
Необязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Токены сортируются на основе присвоенных им вероятностей, так что рассматриваются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, в то время как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.
Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_p
Model
, возвращаемый функцией getModel
.
topK
integer
Необязательно. Максимальное количество токенов, учитываемых при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка top-k учитывает набор из topK
наиболее вероятных токенов. Значение по умолчанию — 40.
Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_k
Model
, возвращаемый функцией getModel
.
Тело ответа
В случае успеха тело ответа содержит экземпляр GenerateTextResponse
.
Метод: models.countTextTokens
Запускает токенизатор модели для текста и возвращает количество токенов.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
Параметры пути
string
model
Обязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.
Это имя должно совпадать с именем модели, возвращаемым методом models.list
.
Формат: models/{model}
Он имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( TextPrompt )
prompt
Обязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.
Тело ответа
Ответ от models.countTextTokens
.
Возвращает tokenCount
модели для prompt
.
В случае успеха тело ответа содержит данные со следующей структурой:
tokenCount
integer
Количество токенов, в которые model
токенизирует prompt
.
Всегда неотрицательно.
JSON-представление |
---|
{ "tokenCount": integer } |
Метод: models.generateMessage
Формирует ответ модели, учитывая входные данные MessagePrompt
.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
Параметры пути
string
model
Обязательно. Название используемой модели.
Формат: name=models/{model}
. Он имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( MessagePrompt )
prompt
Обязательно. Структурированный текстовый ввод, передаваемый модели в качестве подсказки.
При наличии подсказки модель вернет то, что она прогнозирует как следующее сообщение в обсуждении.
temperature
number
Необязательно. Управляет случайностью выходных данных.
Значения могут находиться в диапазоне [0.0,1.0]
включительно. Значение, близкое к 1.0
будет давать более разнообразные ответы, тогда как значение, близкое к 0.0
обычно приводит к менее неожиданным ответам модели.
candidateCount
integer
Необязательно. Количество возвращаемых сгенерированных ответных сообщений.
Это значение должно находиться в диапазоне [1, 8]
включительно. Если не задано, по умолчанию будет использоваться значение 1
.
number
topP
Необязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых составляет не менее topP
.
topK
integer
Необязательно. Максимальное количество токенов, учитываемых при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка Top-k рассматривает набор из topK
наиболее вероятных токенов.
Тело ответа
Ответ модели.
Сюда входят сообщения кандидатов и история разговоров в виде сообщений, упорядоченных в хронологическом порядке.
В случае успеха тело ответа содержит данные со следующей структурой:
candidates[]
object ( Message
)
Ответные сообщения кандидата от модели.
messages[]
object ( Message
)
История разговоров, используемая моделью.
filters[]
object ( ContentFilter
)
Набор метаданных фильтрации контента для текста подсказки и ответа.
Здесь указывается, какая(ие) категория(и) SafetyCategory
заблокировали кандидата из этого ответа, наименьшее значение HarmProbability
, вызвавшее блокировку, и настройка HarmThreshold для этой категории.
JSON-представление |
---|
{ "candidates": [ { object ( |
Метод: models.countMessageTokens
Запускает токенизатор модели для строки и возвращает количество токенов.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
Параметры пути
string
model
Обязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.
Это имя должно совпадать с именем модели, возвращаемым методом models.list
.
Формат: models/{model}
Он имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( MessagePrompt )
prompt
Обязательно. Подсказка, количество токенов которой необходимо вернуть.
Тело ответа
Ответ от models.countMessageTokens
.
Возвращает tokenCount
модели для prompt
.
В случае успеха тело ответа содержит данные со следующей структурой:
tokenCount
integer
Количество токенов, в которые model
токенизирует prompt
.
Всегда неотрицательно.
JSON-представление |
---|
{ "tokenCount": integer } |
Метод: models.embedText
Формирует вложение из модели с учетом входного сообщения.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
Параметры пути
string
model
Обязательно. Имя модели, которое будет использоваться в формате model=models/{model}. Формат: models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
text
string
Необязательно. Свободный текст ввода, который модель преобразует во встраивание.
Метод: models.batchEmbedText
Генерирует несколько внедрений из заданного входного текста модели в синхронном вызове.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
Параметры пути
string
model
Обязательно. Имя Model
, используемой для создания встраивания. Примеры: models/embedding-gecko-001. Имя имеет вид models/{model}
.
Текст запроса
Тело запроса содержит данные со следующей структурой:
texts[]
string
Необязательно. Тексты в свободной форме, которые модель преобразует во встраивание. Текущее ограничение — 100 текстов. При превышении этого лимита будет выдана ошибка.
requests[]
object ( EmbedTextRequest
)
Необязательно. Встраивайте запросы для пакета. Можно задать только один из texts
или requests
.
Тело ответа
Ответ на EmbedTextRequest.
В случае успеха тело ответа содержит данные со следующей структурой:
object ( Embedding )
embeddings[]
Только вывод. Вложения, сгенерированные из входного текста.
JSON-представление |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Запрос на получение текстовой вставки из модели.
string
model
Обязательно. Имя модели в формате model=models/{model}.
text
string
Необязательно. Свободный текст ввода, который модель преобразует во встраивание.
JSON-представление |
---|
{ "model": string, "text": string } |
Фильтр контента
Метаданные фильтрации контента, связанные с обработкой одного запроса.
ContentFilter содержит причину и необязательную вспомогательную строку. Причина может быть не указана.
reason
enum ( BlockedReason
)
Причина блокировки контента во время обработки запроса.
string
message
Строка, которая более подробно описывает поведение фильтрации.
JSON-представление |
---|
{
"reason": enum ( |
Причина блокировки
Список причин, по которым контент мог быть заблокирован.
Перечисления | |
---|---|
BLOCKED_REASON_UNSPECIFIED | Причина блокировки не указана. |
SAFETY | Контент заблокирован настройками безопасности. |
OTHER | Контент был заблокирован, но причина не указана. |
Встраивание
Список плавающих элементов, представляющих вложение.
value[]
number
Вложенные значения.
JSON-представление |
---|
{ "value": [ number ] } |
Сообщение
Базовая единица структурированного текста.
Message
включает author
и content
Message
.
author
используется для маркировки сообщений, когда они подаются в модель в виде текста.
string
content
Обязательно. Текстовое содержание структурированного Message
.
object ( CitationMetadata )
citationMetadata
Только вывод. Информация о цитировании content
, созданного моделью, в этом Message
.
Если это Message
было сгенерировано как выходной сигнал модели, это поле может быть заполнено информацией об авторстве для любого текста, включённого в content
. Это поле используется только при выводе.
JSON-представление |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
СообщениеПодсказка
Весь структурированный входной текст передается в модель в качестве подсказки.
MessagePrompt
содержит структурированный набор полей, которые предоставляют контекст для разговора, примеры пар сообщений «ввод пользователя/вывод модели», которые подготавливают модель к ответу различными способами, а также историю разговора или список сообщений, представляющих чередующиеся этапы разговора между пользователем и моделью.
string
context
Необязательно. Текст, который необходимо сначала предоставить модели для обоснования ответа.
Если этот context
не пуст, он будет передан модели первым, до examples
и messages
. При использовании context
обязательно указывайте его при каждом запросе для сохранения преемственности.
В этом поле можно указать описание вашего запроса к модели, чтобы помочь определить контекст и направить ответы. Примеры: «Переведите фразу с английского на французский» или «По заданному утверждению классифицируйте его эмоцию как радостную, грустную или нейтральную».
Все данные, включенные в это поле, будут иметь приоритет над историей сообщений, если общий размер входных данных превысит inputTokenLimit
модели и запрос на входные данные будет усечен.
examples[]
object ( Example
)
Необязательно. Примеры того, что должна генерировать модель.
Сюда входит как ввод данных пользователем, так и реакция, которую должна имитировать модель.
Эти examples
обрабатываются так же, как сообщения в беседе, за исключением того, что они имеют приоритет над историей в messages
: если общий размер входных данных превышает inputTokenLimit
модели, входные данные будут усечены. Элементы будут удалены из messages
перед examples
.
messages[]
object ( Message
)
Обязательно. Краткий обзор недавней истории разговоров, отсортированный в хронологическом порядке.
Ходы чередуются между двумя авторами.
Если общий размер входных данных превышает inputTokenLimit
модели, входные данные будут усечены: самые старые элементы будут удалены из messages
.
Пример
Пример ввода/вывода, используемый для обучения Модели.
Он демонстрирует, как модель должна реагировать или форматировать свой ответ.
input
object ( Message
)
Обязательно. Пример входного Message
от пользователя.
output
object ( Message
)
Обязательно. Пример того, что должна вывести модель с учётом входных данных.
GenerateTextResponse
Ответ модели, включая возможные дополнения.
candidates[]
object ( TextCompletion
)
Ответы кандидатов от модели.
filters[]
object ( ContentFilter
)
Набор метаданных фильтрации контента для текста подсказки и ответа.
Здесь указывается, какая категория SafetyCategory
заблокировала кандидата из этого ответа, наименьшая HarmProbability
, приведшая к блокировке, и значение параметра HarmThreshold для этой категории. Здесь указывается минимальное изменение SafetySettings
, необходимое для разблокировки хотя бы одного ответа.
Блокировка настраивается с помощью SafetySettings
в запросе (или SafetySettings
по умолчанию в API).
object ( SafetyFeedback )
safetyFeedback[]
Возвращает любые отзывы по безопасности, связанные с фильтрацией контента.
JSON-представление |
---|
{ "candidates": [ { object ( |
Дополнение текста
Выходной текст, возвращаемый моделью.
output
string
Только вывод. Сгенерированный текст, возвращаемый моделью.
safetyRatings[]
object ( SafetyRating
)
Рейтинги безопасности ответа.
В каждой категории может быть максимум один рейтинг.
object ( CitationMetadata )
citationMetadata
Только вывод. Информация о цитировании для output
, сгенерированного моделью, в этом TextCompletion
.
Это поле может быть заполнено информацией об атрибуции для любого текста, включенного в output
.
JSON-представление |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Обратная связь по безопасности для всего запроса.
Это поле заполняется, если содержимое входных данных и/или ответа заблокировано настройками безопасности. SafetyFeedback может существовать не для каждой категории HarmCategory. Каждый SafetyFeedback возвращает настройки безопасности, используемые в запросе, а также минимально допустимое значение HarmProbability для возврата результата.
rating
object ( SafetyRating
)
Рейтинг безопасности оценивается на основе содержания.
setting
object ( SafetySetting
)
К запросу применены настройки безопасности.
JSON-представление |
---|
{ "rating": { object ( |