Метод: models.generateText
Формирует ответ модели по введенному сообщению.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateTextПараметры пути
string model Обязательно. Имя Model или TunedModel , используемой для генерации автодополнения. Примеры: models/text-bison-001 tunedModels/sentence-translator-u3b7m . Имя имеет вид models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( TextPrompt ) promptОбязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.
При получении подсказки модель сгенерирует ответ TextCompletion, который она прогнозирует как завершение вводимого текста.
safetySettings[]object ( SafetySetting ) Необязательно. Список уникальных экземпляров SafetySetting для блокировки небезопасного контента.
которые будут применяться к GenerateTextRequest.prompt и GenerateTextResponse.candidates . Для каждого типа SafetyCategory не должно быть более одного параметра. API будет блокировать любые запросы и ответы, не соответствующие пороговым значениям, установленным этими параметрами. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory , указанной в параметре safetySettings. Если в списке для заданной SafetyCategory отсутствует SafetySetting , API будет использовать параметр безопасности по умолчанию для этой категории. В текстовом сервисе поддерживаются категории вреда: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.
stopSequences[]stringНабор последовательностей символов (до 5), которые остановят генерацию вывода. Если указано, API остановит работу при первом появлении стоп-последовательности. Эта стоп-последовательность не будет включена в ответ.
temperaturenumber Необязательно. Управляет случайностью выходных данных. Примечание: значение по умолчанию зависит от модели, см. атрибут Model.temperature Model , возвращаемой функцией getModel .
Значения могут находиться в диапазоне [0,0; 1,0] включительно. Значение, близкое к 1,0, будет давать более разнообразные и креативные ответы, в то время как значение, близкое к 0,0, обычно приводит к более прямолинейным ответам модели.
candidateCountintegerНеобязательно. Количество сгенерированных ответов для возврата.
Это значение должно находиться в диапазоне [1, 8] включительно. Если не задано, по умолчанию будет использоваться значение 1.
maxOutputTokensintegerНеобязательно. Максимальное количество токенов для включения в кандидата.
Если не установлено, по умолчанию будет использоваться outputTokenLimit, указанный в спецификации Model .
number topPНеобязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Токены сортируются на основе присвоенных им вероятностей, так что рассматриваются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, в то время как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.
Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_p Model , возвращаемый функцией getModel .
topKintegerНеобязательно. Максимальное количество токенов, учитываемых при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка top-k учитывает набор из topK наиболее вероятных токенов. Значение по умолчанию — 40.
Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_k Model , возвращаемый функцией getModel .
Тело ответа
В случае успеха тело ответа содержит экземпляр GenerateTextResponse .
Метод: models.countTextTokens
Запускает токенизатор модели для текста и возвращает количество токенов.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokensПараметры пути
string modelОбязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.
Это имя должно совпадать с именем модели, возвращаемым методом models.list .
Формат: models/{model} Он имеет вид models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( TextPrompt ) promptОбязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.
Тело ответа
Ответ от models.countTextTokens .
Возвращает tokenCount модели для prompt .
В случае успеха тело ответа содержит данные со следующей структурой:
tokenCountinteger Количество токенов, в которые model токенизирует prompt .
Всегда неотрицательно.
| JSON-представление |
|---|
{ "tokenCount": integer } |
Метод: models.generateMessage
Формирует ответ модели, учитывая входные данные MessagePrompt .
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessageПараметры пути
string modelОбязательно. Название используемой модели.
Формат: name=models/{model} . Он имеет вид models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( MessagePrompt ) promptОбязательно. Структурированный текстовый ввод, передаваемый модели в качестве подсказки.
При наличии подсказки модель вернет то, что она прогнозирует как следующее сообщение в обсуждении.
temperaturenumberНеобязательно. Управляет случайностью выходных данных.
Значения могут находиться в диапазоне [0.0,1.0] включительно. Значение, близкое к 1.0 будет давать более разнообразные ответы, тогда как значение, близкое к 0.0 обычно приводит к менее неожиданным ответам модели.
candidateCountintegerНеобязательно. Количество возвращаемых сгенерированных ответных сообщений.
Это значение должно находиться в диапазоне [1, 8] включительно. Если не задано, по умолчанию будет использоваться значение 1 .
number topPНеобязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых составляет не менее topP .
topKintegerНеобязательно. Максимальное количество токенов, учитываемых при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка Top-k рассматривает набор из topK наиболее вероятных токенов.
Тело ответа
Ответ модели.
Сюда входят сообщения кандидатов и история разговоров в виде сообщений, упорядоченных в хронологическом порядке.
В случае успеха тело ответа содержит данные со следующей структурой:
candidates[]object ( Message )Ответные сообщения кандидата от модели.
messages[]object ( Message )История разговоров, используемая моделью.
filters[]object ( ContentFilter )Набор метаданных фильтрации контента для текста подсказки и ответа.
Здесь указывается, какая(ие) категория(и) SafetyCategory заблокировали кандидата из этого ответа, наименьшее значение HarmProbability , вызвавшее блокировку, и настройка HarmThreshold для этой категории.
| JSON-представление |
|---|
{ "candidates": [ { object ( |
Метод: models.countMessageTokens
Запускает токенизатор модели для строки и возвращает количество токенов.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokensПараметры пути
string modelОбязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.
Это имя должно совпадать с именем модели, возвращаемым методом models.list .
Формат: models/{model} Он имеет вид models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
object ( MessagePrompt ) promptОбязательно. Подсказка, количество токенов которой необходимо вернуть.
Тело ответа
Ответ от models.countMessageTokens .
Возвращает tokenCount модели для prompt .
В случае успеха тело ответа содержит данные со следующей структурой:
tokenCountinteger Количество токенов, в которые model токенизирует prompt .
Всегда неотрицательно.
| JSON-представление |
|---|
{ "tokenCount": integer } |
Метод: models.embedText
Формирует вложение из модели с учетом входного сообщения.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedTextПараметры пути
string model Обязательно. Имя модели, которое будет использоваться в формате model=models/{model}. Формат: models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
textstringНеобязательно. Свободный текст ввода, который модель преобразует во встраивание.
Метод: models.batchEmbedText
Генерирует несколько внедрений из заданного входного текста модели в синхронном вызове.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedTextПараметры пути
string model Обязательно. Имя Model , используемой для создания встраивания. Примеры: models/embedding-gecko-001. Имя имеет вид models/{model} .
Текст запроса
Тело запроса содержит данные со следующей структурой:
texts[]stringНеобязательно. Тексты в свободной форме, которые модель преобразует во встраивание. Текущее ограничение — 100 текстов. При превышении этого лимита будет выдана ошибка.
requests[]object ( EmbedTextRequest ) Необязательно. Встраивайте запросы для пакета. Можно задать только один из texts или requests .
Тело ответа
Ответ на EmbedTextRequest.
В случае успеха тело ответа содержит данные со следующей структурой:
object ( Embedding ) embeddings[]Только вывод. Вложения, сгенерированные из входного текста.
| JSON-представление |
|---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Запрос на получение текстовой вставки из модели.
string modelОбязательно. Имя модели в формате model=models/{model}.
textstringНеобязательно. Свободный текст ввода, который модель преобразует во встраивание.
| JSON-представление |
|---|
{ "model": string, "text": string } |
Фильтр контента
Метаданные фильтрации контента, связанные с обработкой одного запроса.
ContentFilter содержит причину и необязательную вспомогательную строку. Причина может быть не указана.
reasonenum ( BlockedReason )Причина блокировки контента во время обработки запроса.
string messageСтрока, которая более подробно описывает поведение фильтрации.
| JSON-представление |
|---|
{
"reason": enum ( |
Причина блокировки
Список причин, по которым контент мог быть заблокирован.
| Перечисления | |
|---|---|
BLOCKED_REASON_UNSPECIFIED | Причина блокировки не указана. |
SAFETY | Контент заблокирован настройками безопасности. |
OTHER | Контент был заблокирован, но причина не указана. |
Встраивание
Список плавающих элементов, представляющих вложение.
value[]numberВложенные значения.
| JSON-представление |
|---|
{ "value": [ number ] } |
Сообщение
Базовая единица структурированного текста.
Message включает author и content Message .
author используется для маркировки сообщений, когда они подаются в модель в виде текста.
string content Обязательно. Текстовое содержание структурированного Message .
object ( CitationMetadata ) citationMetadata Только вывод. Информация о цитировании content , созданного моделью, в этом Message .
Если это Message было сгенерировано как выходной сигнал модели, это поле может быть заполнено информацией об авторстве для любого текста, включённого в content . Это поле используется только при выводе.
| JSON-представление |
|---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
СообщениеПодсказка
Весь структурированный входной текст передается в модель в качестве подсказки.
MessagePrompt содержит структурированный набор полей, которые предоставляют контекст для разговора, примеры пар сообщений «ввод пользователя/вывод модели», которые подготавливают модель к ответу различными способами, а также историю разговора или список сообщений, представляющих чередующиеся этапы разговора между пользователем и моделью.
string contextНеобязательно. Текст, который необходимо сначала предоставить модели для обоснования ответа.
Если этот context не пуст, он будет передан модели первым, до examples и messages . При использовании context обязательно указывайте его при каждом запросе для сохранения преемственности.
В этом поле можно указать описание вашего запроса к модели, чтобы помочь определить контекст и направить ответы. Примеры: «Переведите фразу с английского на французский» или «По заданному утверждению классифицируйте его эмоцию как радостную, грустную или нейтральную».
Все данные, включенные в это поле, будут иметь приоритет над историей сообщений, если общий размер входных данных превысит inputTokenLimit модели и запрос на входные данные будет усечен.
examples[]object ( Example )Необязательно. Примеры того, что должна генерировать модель.
Сюда входит как ввод данных пользователем, так и реакция, которую должна имитировать модель.
Эти examples обрабатываются так же, как сообщения в беседе, за исключением того, что они имеют приоритет над историей в messages : если общий размер входных данных превышает inputTokenLimit модели, входные данные будут усечены. Элементы будут удалены из messages перед examples .
messages[]object ( Message )Обязательно. Краткий обзор недавней истории разговоров, отсортированный в хронологическом порядке.
Ходы чередуются между двумя авторами.
Если общий размер входных данных превышает inputTokenLimit модели, входные данные будут усечены: самые старые элементы будут удалены из messages .
Пример
Пример ввода/вывода, используемый для обучения Модели.
Он демонстрирует, как модель должна реагировать или форматировать свой ответ.
inputobject ( Message ) Обязательно. Пример входного Message от пользователя.
outputobject ( Message )Обязательно. Пример того, что должна вывести модель с учётом входных данных.
GenerateTextResponse
Ответ модели, включая возможные дополнения.
candidates[]object ( TextCompletion )Ответы кандидатов от модели.
filters[]object ( ContentFilter )Набор метаданных фильтрации контента для текста подсказки и ответа.
Здесь указывается, какая категория SafetyCategory заблокировала кандидата из этого ответа, наименьшая HarmProbability , приведшая к блокировке, и значение параметра HarmThreshold для этой категории. Здесь указывается минимальное изменение SafetySettings , необходимое для разблокировки хотя бы одного ответа.
Блокировка настраивается с помощью SafetySettings в запросе (или SafetySettings по умолчанию в API).
object ( SafetyFeedback ) safetyFeedback[]Возвращает любые отзывы по безопасности, связанные с фильтрацией контента.
| JSON-представление |
|---|
{ "candidates": [ { object ( |
Дополнение текста
Выходной текст, возвращаемый моделью.
outputstringТолько вывод. Сгенерированный текст, возвращаемый моделью.
safetyRatings[]object ( SafetyRating )Рейтинги безопасности ответа.
В каждой категории может быть максимум один рейтинг.
object ( CitationMetadata ) citationMetadata Только вывод. Информация о цитировании для output , сгенерированного моделью, в этом TextCompletion .
Это поле может быть заполнено информацией об атрибуции для любого текста, включенного в output .
| JSON-представление |
|---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Обратная связь по безопасности для всего запроса.
Это поле заполняется, если содержимое входных данных и/или ответа заблокировано настройками безопасности. SafetyFeedback может существовать не для каждой категории HarmCategory. Каждый SafetyFeedback возвращает настройки безопасности, используемые в запросе, а также минимально допустимое значение HarmProbability для возврата результата.
ratingobject ( SafetyRating )Рейтинг безопасности оценивается на основе содержания.
settingobject ( SafetySetting )К запросу применены настройки безопасности.
| JSON-представление |
|---|
{ "rating": { object ( |