PaLM (decommissioned)

Метод: models.generateText

Формирует ответ модели по введенному сообщению.

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText

Параметры пути

string model

Обязательно. Имя Model или TunedModel , используемой для генерации автодополнения. Примеры: models/text-bison-001 tunedModels/sentence-translator-u3b7m . Имя имеет вид models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
object ( TextPrompt ) prompt ( TextPrompt )

Обязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.

При получении подсказки модель сгенерирует ответ TextCompletion, который она прогнозирует как завершение вводимого текста.

объект safetySettings[] object ( SafetySetting )

Необязательно. Список уникальных экземпляров SafetySetting для блокировки небезопасного контента.

которые будут применяться к GenerateTextRequest.prompt и GenerateTextResponse.candidates . Для каждого типа SafetyCategory не должно быть более одного параметра. API будет блокировать любые запросы и ответы, не соответствующие пороговым значениям, установленным этими параметрами. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory , указанной в параметре safetySettings. Если в списке для заданной SafetyCategory отсутствует SafetySetting , API будет использовать параметр безопасности по умолчанию для этой категории. В текстовом сервисе поддерживаются категории вреда: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.

stopSequences[] string

Набор последовательностей символов (до 5), которые остановят генерацию вывода. Если указано, API остановит работу при первом появлении стоп-последовательности. Эта стоп-последовательность не будет включена в ответ.

temperature number

Необязательно. Управляет случайностью выходных данных. Примечание: значение по умолчанию зависит от модели, см. атрибут Model.temperature Model , возвращаемой функцией getModel .

Значения могут находиться в диапазоне [0,0; 1,0] включительно. Значение, близкое к 1,0, будет давать более разнообразные и креативные ответы, в то время как значение, близкое к 0,0, обычно приводит к более прямолинейным ответам модели.

candidateCount integer

Необязательно. Количество сгенерированных ответов для возврата.

Это значение должно находиться в диапазоне [1, 8] включительно. Если не задано, по умолчанию будет использоваться значение 1.

maxOutputTokens integer

Необязательно. Максимальное количество токенов для включения в кандидата.

Если не установлено, по умолчанию будет использоваться outputTokenLimit, указанный в спецификации Model .

number topP

Необязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Токены сортируются на основе присвоенных им вероятностей, так что рассматриваются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, в то время как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.

Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_p Model , возвращаемый функцией getModel .

topK integer

Необязательно. Максимальное количество токенов, учитываемых при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Выборка top-k учитывает набор из topK наиболее вероятных токенов. Значение по умолчанию — 40.

Примечание: значение по умолчанию зависит от модели, см. атрибут Model.top_k Model , возвращаемый функцией getModel .

Тело ответа

В случае успеха тело ответа содержит экземпляр GenerateTextResponse .

Метод: models.countTextTokens

Запускает токенизатор модели для текста и возвращает количество токенов.

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens

Параметры пути

string model

Обязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.

Это имя должно совпадать с именем модели, возвращаемым методом models.list .

Формат: models/{model} Он имеет вид models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
object ( TextPrompt ) prompt ( TextPrompt )

Обязательно. Текст в свободной форме, который будет предоставлен модели в качестве подсказки.

Тело ответа

Ответ от models.countTextTokens .

Возвращает tokenCount модели для prompt .

В случае успеха тело ответа содержит данные со следующей структурой:

Поля
tokenCount integer

Количество токенов, в которые model токенизирует prompt .

Всегда неотрицательно.

JSON-представление
{
  "tokenCount": integer
}

Метод: models.generateMessage

Формирует ответ модели, учитывая входные данные MessagePrompt .

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage

Параметры пути

string model

Обязательно. Название используемой модели.

Формат: name=models/{model} . Он имеет вид models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
object ( MessagePrompt ) prompt (MessagePrompt)

Обязательно. Структурированный текстовый ввод, передаваемый модели в качестве подсказки.

При наличии подсказки модель вернет то, что она прогнозирует как следующее сообщение в обсуждении.

temperature number

Необязательно. Управляет случайностью выходных данных.

Значения могут находиться в диапазоне [0.0,1.0] включительно. Значение, близкое к 1.0 будет давать более разнообразные ответы, тогда как значение, близкое к 0.0 обычно приводит к менее неожиданным ответам модели.

candidateCount integer

Необязательно. Количество возвращаемых сгенерированных ответных сообщений.

Это значение должно находиться в диапазоне [1, 8] включительно. Если не задано, по умолчанию будет использоваться значение 1 .

number topP

Необязательно. Максимальная кумулятивная вероятность токенов, учитываемая при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых составляет не менее topP .

topK integer

Необязательно. Максимальное количество токенов, учитываемых при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Выборка Top-k рассматривает набор из topK наиболее вероятных токенов.

Тело ответа

Ответ модели.

Сюда входят сообщения кандидатов и история разговоров в виде сообщений, упорядоченных в хронологическом порядке.

В случае успеха тело ответа содержит данные со следующей структурой:

Поля
candidates[] object ( Message )

Ответные сообщения кандидата от модели.

объект messages[] object ( Message )

История разговоров, используемая моделью.

объект filters[] object ( ContentFilter )

Набор метаданных фильтрации контента для текста подсказки и ответа.

Здесь указывается, какая(ие) категория(и) SafetyCategory заблокировали кандидата из этого ответа, наименьшее значение HarmProbability , вызвавшее блокировку, и настройка HarmThreshold для этой категории.

JSON-представление
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Метод: models.countMessageTokens

Запускает токенизатор модели для строки и возвращает количество токенов.

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens

Параметры пути

string model

Обязательно. Имя ресурса модели. Служит идентификатором, который будет использовать модель.

Это имя должно совпадать с именем модели, возвращаемым методом models.list .

Формат: models/{model} Он имеет вид models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
object ( MessagePrompt ) prompt (MessagePrompt)

Обязательно. Подсказка, количество токенов которой необходимо вернуть.

Тело ответа

Ответ от models.countMessageTokens .

Возвращает tokenCount модели для prompt .

В случае успеха тело ответа содержит данные со следующей структурой:

Поля
tokenCount integer

Количество токенов, в которые model токенизирует prompt .

Всегда неотрицательно.

JSON-представление
{
  "tokenCount": integer
}

Метод: models.embedText

Формирует вложение из модели с учетом входного сообщения.

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText

Параметры пути

string model

Обязательно. Имя модели, которое будет использоваться в формате model=models/{model}. Формат: models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
text string

Необязательно. Свободный текст ввода, который модель преобразует во встраивание.

Тело ответа

Ответ на EmbedTextRequest.

В случае успеха тело ответа содержит данные со следующей структурой:

Поля
embedding object ( Embedding )

Только вывод. Встраивание, сгенерированное из входного текста.

JSON-представление
{
  "embedding": {
    object (Embedding)
  }
}

Метод: models.batchEmbedText

Генерирует несколько внедрений из заданного входного текста модели в синхронном вызове.

Конечная точка

пост https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText

Параметры пути

string model

Обязательно. Имя Model , используемой для создания встраивания. Примеры: models/embedding-gecko-001. Имя имеет вид models/{model} .

Текст запроса

Тело запроса содержит данные со следующей структурой:

Поля
texts[] string

Необязательно. Тексты в свободной форме, которые модель преобразует во встраивание. Текущее ограничение — 100 текстов. При превышении этого лимита будет выдана ошибка.

объект requests[] object ( EmbedTextRequest )

Необязательно. Встраивайте запросы для пакета. Можно задать только один из texts или requests .

Тело ответа

Ответ на EmbedTextRequest.

В случае успеха тело ответа содержит данные со следующей структурой:

Поля
object ( Embedding ) embeddings[] (встраивание)

Только вывод. Вложения, сгенерированные из входного текста.

JSON-представление
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Запрос на получение текстовой вставки из модели.

Поля
string model

Обязательно. Имя модели в формате model=models/{model}.

text string

Необязательно. Свободный текст ввода, который модель преобразует во встраивание.

JSON-представление
{
  "model": string,
  "text": string
}

Фильтр контента

Метаданные фильтрации контента, связанные с обработкой одного запроса.

ContentFilter содержит причину и необязательную вспомогательную строку. Причина может быть не указана.

Поля
reason enum ( BlockedReason )

Причина блокировки контента во время обработки запроса.

string message

Строка, которая более подробно описывает поведение фильтрации.

JSON-представление
{
  "reason": enum (BlockedReason),
  "message": string
}

Причина блокировки

Список причин, по которым контент мог быть заблокирован.

Перечисления
BLOCKED_REASON_UNSPECIFIED Причина блокировки не указана.
SAFETY Контент заблокирован настройками безопасности.
OTHER Контент был заблокирован, но причина не указана.

Встраивание

Список плавающих элементов, представляющих вложение.

Поля
value[] number

Вложенные значения.

JSON-представление
{
  "value": [
    number
  ]
}

Сообщение

Базовая единица структурированного текста.

Message включает author и content Message .

author используется для маркировки сообщений, когда они подаются в модель в виде текста.

Поля
string author

Необязательно. Автор этого сообщения.

Это служит ключом для маркировки содержимого данного сообщения при его передаче в модель в виде текста.

Автором может быть любая буквенно-цифровая строка.

string content

Обязательно. Текстовое содержание структурированного Message .

object ( CitationMetadata ) citationMetadata ( CitationMetadata )

Только вывод. Информация о цитировании content , созданного моделью, в этом Message .

Если это Message было сгенерировано как выходной сигнал модели, это поле может быть заполнено информацией об авторстве для любого текста, включённого в content . Это поле используется только при выводе.

JSON-представление
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

СообщениеПодсказка

Весь структурированный входной текст передается в модель в качестве подсказки.

MessagePrompt содержит структурированный набор полей, которые предоставляют контекст для разговора, примеры пар сообщений «ввод пользователя/вывод модели», которые подготавливают модель к ответу различными способами, а также историю разговора или список сообщений, представляющих чередующиеся этапы разговора между пользователем и моделью.

Поля
string context

Необязательно. Текст, который необходимо сначала предоставить модели для обоснования ответа.

Если этот context не пуст, он будет передан модели первым, до examples и messages . При использовании context обязательно указывайте его при каждом запросе для сохранения преемственности.

В этом поле можно указать описание вашего запроса к модели, чтобы помочь определить контекст и направить ответы. Примеры: «Переведите фразу с английского на французский» или «По заданному утверждению классифицируйте его эмоцию как радостную, грустную или нейтральную».

Все данные, включенные в это поле, будут иметь приоритет над историей сообщений, если общий размер входных данных превысит inputTokenLimit модели и запрос на входные данные будет усечен.

examples[] object ( Example )

Необязательно. Примеры того, что должна генерировать модель.

Сюда входит как ввод данных пользователем, так и реакция, которую должна имитировать модель.

Эти examples обрабатываются так же, как сообщения в беседе, за исключением того, что они имеют приоритет над историей в messages : если общий размер входных данных превышает inputTokenLimit модели, входные данные будут усечены. Элементы будут удалены из messages перед examples .

объект messages[] object ( Message )

Обязательно. Краткий обзор недавней истории разговоров, отсортированный в хронологическом порядке.

Ходы чередуются между двумя авторами.

Если общий размер входных данных превышает inputTokenLimit модели, входные данные будут усечены: самые старые элементы будут удалены из messages .

JSON-представление
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Пример

Пример ввода/вывода, используемый для обучения Модели.

Он демонстрирует, как модель должна реагировать или форматировать свой ответ.

Поля
объект input object ( Message )

Обязательно. Пример входного Message от пользователя.

output object ( Message )

Обязательно. Пример того, что должна вывести модель с учётом входных данных.

JSON-представление
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Ответ модели, включая возможные дополнения.

Поля
объект candidates[] object ( TextCompletion )

Ответы кандидатов от модели.

объект filters[] object ( ContentFilter )

Набор метаданных фильтрации контента для текста подсказки и ответа.

Здесь указывается, какая категория SafetyCategory заблокировала кандидата из этого ответа, наименьшая HarmProbability , приведшая к блокировке, и значение параметра HarmThreshold для этой категории. Здесь указывается минимальное изменение SafetySettings , необходимое для разблокировки хотя бы одного ответа.

Блокировка настраивается с помощью SafetySettings в запросе (или SafetySettings по умолчанию в API).

object ( SafetyFeedback ) safetyFeedback[] ( SafetyFeedback )

Возвращает любые отзывы по безопасности, связанные с фильтрацией контента.

JSON-представление
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

Дополнение текста

Выходной текст, возвращаемый моделью.

Поля
output string

Только вывод. Сгенерированный текст, возвращаемый моделью.

объект safetyRatings[] object ( SafetyRating )

Рейтинги безопасности ответа.

В каждой категории может быть максимум один рейтинг.

object ( CitationMetadata ) citationMetadata ( CitationMetadata )

Только вывод. Информация о цитировании для output , сгенерированного моделью, в этом TextCompletion .

Это поле может быть заполнено информацией об атрибуции для любого текста, включенного в output .

JSON-представление
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Обратная связь по безопасности для всего запроса.

Это поле заполняется, если содержимое входных данных и/или ответа заблокировано настройками безопасности. SafetyFeedback может существовать не для каждой категории HarmCategory. Каждый SafetyFeedback возвращает настройки безопасности, используемые в запросе, а также минимально допустимое значение HarmProbability для возврата результата.

Поля
объект rating object ( SafetyRating )

Рейтинг безопасности оценивается на основе содержания.

объект setting object ( SafetySetting )

К запросу применены настройки безопасности.

JSON-представление
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Текст, предоставленный модели в качестве подсказки.

Модель будет использовать этот TextPrompt для генерации текстового автодополнения.

Поля
text string

Обязательно. Текст подсказки.

JSON-представление
{
  "text": string
}