PaLM (deprecated)

Метод: models.generateText

Генерирует ответ модели с учетом входного сообщения.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Параметры пути

model string

Необходимый. Имя Model или TunedModel , используемое для создания завершения. Примеры: models/text-bison-001 TunedModels/sentence-translator-u3b7m. Он принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
объект prompt object ( TextPrompt )

Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.

При наличии подсказки модель сгенерирует ответ TextCompletion, который прогнозируется как завершение входного текста.

Объект safetySettings[] object ( SafetySetting )

Необязательный. Список уникальных экземпляров SafetySetting для блокировки небезопасного контента.

это будет применяться к GenerateTextRequest.prompt и GenerateTextResponse.candidates . Для каждого типа SafetyCategory не должно быть более одного параметра. API будет блокировать любые запросы и ответы, которые не соответствуют пороговым значениям, установленным этими настройками. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory , указанной в параметре SafetySettings. Если в списке нет SafetySetting для данной SafetyCategory , API будет использовать параметр безопасности по умолчанию для этой категории. Категории вреда HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS поддерживаются в текстовой службе.

stopSequences[] string

Набор последовательностей символов (до 5), которые останавливают генерацию вывода. Если указано, API остановится при первом появлении последовательности остановки. Последовательность остановки не будет включена в ответ.

number temperature

Необязательный. Управляет случайностью вывода. Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.temperature Model , возвращающей функцию getModel .

Значения могут находиться в диапазоне от [0,0,1,0] включительно. Значение ближе к 1,0 приведет к более разнообразным и творческим ответам, тогда как значение ближе к 0,0 обычно приводит к более прямым ответам модели.

integer candidateCount

Необязательный. Количество сгенерированных ответов для возврата.

Это значение должно находиться в диапазоне [1, 8] включительно. Если не установлено, по умолчанию будет 1.

integer maxOutputTokens

Необязательный. Максимальное количество токенов, которые можно включить в кандидата.

Если значение не установлено, по умолчанию будет установлено значение outputTokenLimit, указанное в спецификации Model .

number topP

Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Токены сортируются на основе присвоенных им вероятностей, поэтому учитываются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, тогда как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.

Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_p Model , возвращающей функцию getModel .

integer topK

Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Выборка Top-k рассматривает набор наиболее вероятных токенов topK . По умолчанию 40.

Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_k Model , возвращающей функцию getModel .

Тело ответа

В случае успеха тело ответа содержит экземпляр GenerateTextResponse .

Метод: models.countTextTokens

Запускает токенизатор модели для текста и возвращает количество токенов.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Параметры пути

model string

Необходимый. Имя ресурса модели. Это служит идентификатором для использования модели.

Это имя должно соответствовать имени модели, возвращаемому методом models.list .

Формат: models/{model} Принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
объект prompt object ( TextPrompt )

Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.

Тело ответа

Ответ от models.countTextTokens .

Он возвращает tokenCount модели для prompt .

В случае успеха тело ответа содержит данные следующей структуры:

Поля
integer tokenCount

Количество токенов, в которые model разбивает prompt .

Всегда неотрицательный.

JSON-представление
{
  "tokenCount": integer
}

Метод: models.generateMessage

Генерирует ответ модели с учетом входного MessagePrompt .

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Параметры пути

model string

Необходимый. Имя модели, которую нужно использовать.

Формат: name=models/{model} . Он принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
объект prompt object ( MessagePrompt )

Необходимый. Структурированный текстовый ввод, подаваемый модели в качестве подсказки.

При наличии подсказки модель вернет то, что, по ее прогнозам, станет следующим сообщением в обсуждении.

number temperature

Необязательный. Управляет случайностью вывода.

Значения могут находиться в диапазоне от [0.0,1.0] включительно. Значение ближе к 1.0 приведет к более разнообразным ответам, тогда как значение ближе к 0.0 обычно приводит к менее неожиданным ответам модели.

integer candidateCount

Необязательный. Количество сгенерированных ответных сообщений, которые необходимо вернуть.

Это значение должно находиться в диапазоне [1, 8] включительно. Если не установлено, по умолчанию будет установлено значение 1 .

number topP

Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых не меньше topP .

integer topK

Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Выборка Top-k рассматривает набор наиболее вероятных токенов topK .

Тело ответа

Ответ модели.

Сюда входят сообщения кандидатов и история разговоров в виде сообщений в хронологическом порядке.

В случае успеха тело ответа содержит данные следующей структуры:

Поля
объект candidates[] object ( Message )

Ответные сообщения кандидата от модели.

объект messages[] object ( Message )

История разговоров, используемая моделью.

объект filters[] object ( ContentFilter )

Набор метаданных фильтрации контента для текста приглашения и ответа.

Здесь указывается, какая SafetyCategory заблокировала кандидата в этом ответе, наименьшая HarmProbability , вызвавшая блокировку, а также параметр HarmThreshold для этой категории.

JSON-представление
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Метод: models.countMessageTokens

Запускает токенизатор модели для строки и возвращает количество токенов.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Параметры пути

model string

Необходимый. Имя ресурса модели. Это служит идентификатором для использования модели.

Это имя должно соответствовать имени модели, возвращаемому методом models.list .

Формат: models/{model} Принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
объект prompt object ( MessagePrompt )

Необходимый. Запрос, количество токенов которого должно быть возвращено.

Тело ответа

Ответ от models.countMessageTokens .

Он возвращает tokenCount модели для prompt .

В случае успеха тело ответа содержит данные следующей структуры:

Поля
integer tokenCount

Количество токенов, в которые model разбивает prompt .

Всегда неотрицательный.

JSON-представление
{
  "tokenCount": integer
}

Метод: models.embedText

Генерирует внедрение из модели с учетом входного сообщения.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Параметры пути

model string

Необходимый. Имя модели, которое будет использоваться в формате model=models/{model}. Он принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
text string

Необязательный. Входной текст в произвольной форме, который модель превратит во внедрение.

Тело ответа

Ответ на EmbedTextRequest.

В случае успеха тело ответа содержит данные следующей структуры:

Поля
объект embedding object ( Embedding )

Только вывод. Вложение, созданное на основе входного текста.

JSON-представление
{
  "embedding": {
    object (Embedding)
  }
}

Метод: models.batchEmbedText

Создает несколько внедрений из модели с учетом входного текста в синхронном вызове.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Параметры пути

model string

Необходимый. Имя Model , используемой для создания внедрения. Примеры: models/embedding-gecko-001. Он принимает форму models/{model} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
texts[] string

Необязательный. Входные тексты в свободной форме, которые модель преобразует во внедрение. Текущий лимит — 100 текстов, при превышении которых будет выдаваться ошибка.

объект requests[] object ( EmbedTextRequest )

Необязательный. Встраивание запросов на пакет. Можно задать только один из texts или requests .

Тело ответа

Ответ на EmbedTextRequest.

В случае успеха тело ответа содержит данные следующей структуры:

Поля
объект embeddings[] object ( Embedding )

Только вывод. Вложения, созданные на основе входного текста.

JSON-представление
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

Встроитьтекстовый запрос

Запрос на встраивание текста из модели.

JSON-представление
{
  "model": string,
  "text": string
}
Поля
model string

Необходимый. Имя модели, которое будет использоваться в формате model=models/{model}.

text string

Необязательный. Входной текст в произвольной форме, который модель превратит во внедрение.

Метод: TunedModels.generateText

Генерирует ответ модели с учетом входного сообщения.

Конечная точка

опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Параметры пути

model string

Необходимый. Имя Model или TunedModel , используемое для создания завершения. Примеры: models/text-bison-001 TunedModels/sentence-translator-u3b7m Он принимает форму tunedModels/{tunedmodel} .

Тело запроса

Тело запроса содержит данные следующей структуры:

Поля
объект prompt object ( TextPrompt )

Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.

При наличии запроса модель сгенерирует ответ TextCompletion, который прогнозируется как завершение входного текста.

Объект safetySettings[] object ( SafetySetting )

Необязательный. Список уникальных экземпляров SafetySetting для блокировки небезопасного контента.

это будет применяться к GenerateTextRequest.prompt и GenerateTextResponse.candidates . Для каждого типа SafetyCategory не должно быть более одного параметра. API будет блокировать любые запросы и ответы, которые не соответствуют пороговым значениям, установленным этими настройками. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory , указанной в параметре SafetySettings. Если в списке нет SafetySetting для данной SafetyCategory , API будет использовать параметр безопасности по умолчанию для этой категории. Категории вреда HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS поддерживаются в текстовой службе.

stopSequences[] string

Набор последовательностей символов (до 5), которые останавливают генерацию вывода. Если указано, API остановится при первом появлении последовательности остановки. Последовательность остановки не будет включена в ответ.

number temperature

Необязательный. Управляет случайностью вывода. Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.temperature Model , возвращающей функцию getModel .

Значения могут находиться в диапазоне от [0,0,1,0] включительно. Значение ближе к 1,0 приведет к более разнообразным и творческим ответам, тогда как значение ближе к 0,0 обычно приводит к более прямым ответам модели.

integer candidateCount

Необязательный. Количество сгенерированных ответов для возврата.

Это значение должно находиться в диапазоне [1, 8] включительно. Если не установлено, по умолчанию будет 1.

integer maxOutputTokens

Необязательный. Максимальное количество токенов, которые можно включить в кандидата.

Если значение не установлено, по умолчанию будет установлено значение outputTokenLimit, указанное в спецификации Model .

number topP

Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Токены сортируются на основе присвоенных им вероятностей, поэтому учитываются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, тогда как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.

Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_p Model , возвращающей функцию getModel .

integer topK

Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.

Модель использует комбинированную выборку Top-k и ядра.

Выборка Top-k рассматривает набор наиболее вероятных токенов topK . По умолчанию 40.

Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_k Model , возвращающей функцию getModel .

Тело ответа

В случае успеха тело ответа содержит экземпляр GenerateTextResponse .

КонтентФильтр

Метаданные фильтрации контента, связанные с обработкой одного запроса.

ContentFilter содержит причину и необязательную вспомогательную строку. Причина может быть неустановленной.

JSON-представление
{
  "reason": enum (BlockedReason),
  "message": string
}
Поля
перечисление reason enum ( BlockedReason )

Причина, по которой контент был заблокирован во время обработки запроса.

string message

Строка, которая более подробно описывает поведение фильтрации.

БлокедПричина

Список причин, по которым контент мог быть заблокирован.

Перечисления
BLOCKED_REASON_UNSPECIFIED Причина блокировки не указана.
SAFETY Контент заблокирован настройками безопасности.
OTHER Контент был заблокирован, но причина не указана.

Встраивание

Список чисел с плавающей запятой, представляющих встраивание.

JSON-представление
{
  "value": [
    number
  ]
}
Поля
value[] number

Вложенные значения.

Сообщение

Базовая единица структурированного текста.

Message включает в себя author и content Message .

author используется для пометки сообщений, когда они передаются в модель в виде текста.

JSON-представление
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Поля
string author

Необязательный. Автор этого сообщения.

Это служит ключом для маркировки содержимого этого сообщения, когда оно подается в модель в виде текста.

Автором может быть любая буквенно-цифровая строка.

string content

Необходимый. Текстовое содержимое структурированного Message .

объект citationMetadata object ( CitationMetadata )

Только вывод. Информация о цитировании content , созданного моделью, в этом Message .

Если это Message было создано как выходные данные модели, это поле может быть заполнено информацией об атрибуции любого текста, включенного в content . Это поле используется только при выводе.

СообщениеПодсказка

Весь структурированный входной текст передается модели в виде подсказки.

MessagePrompt содержит структурированный набор полей, которые обеспечивают контекст для диалога, примеры пар сообщений пользовательского ввода/вывода модели, которые заставляют модель реагировать по-разному, а также историю разговора или список сообщений, представляющих чередующиеся повороты разговора между Пользователь и модель.

JSON-представление
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Поля
context string

Необязательный. Текст, который необходимо сначала предоставить модели, чтобы обосновать ответ.

Если не пусто, этот context будет передан модели сначала перед examples и messages . При использовании context обязательно предоставляйте его при каждом запросе, чтобы обеспечить непрерывность.

Это поле может представлять собой описание запроса к модели, помогающее предоставить контекст и направлять ответы. Примеры: «Переведите фразу с английского на французский». или «Учитывая утверждение, классифицируйте его настроение как счастливое, грустное или нейтральное».

Все, что включено в это поле, будет иметь приоритет над историей сообщений, если общий размер входных данных превышает inputTokenLimit модели и входной запрос усекается.

объект examples[] object ( Example )

Необязательный. Примеры того, что должна генерировать модель.

Сюда входит как ввод пользователя, так и ответ, который должна имитировать модель.

Эти examples обрабатываются идентично сообщениям диалога, за исключением того, что они имеют приоритет над историей в messages : если общий размер входных данных превышает inputTokenLimit модели, входные данные будут обрезаны. Элементы будут удалены из messages перед examples .

объект messages[] object ( Message )

Необходимый. Снимок истории недавних разговоров, отсортированный в хронологическом порядке.

Ходы чередуются между двумя авторами.

Если общий размер входных данных превышает inputTokenLimit модели, входные данные будут обрезаны: самые старые элементы будут удалены из messages .

Пример

Пример ввода/вывода, используемый для указания модели.

Он демонстрирует, как модель должна реагировать или форматировать свой ответ.

JSON-представление
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Поля
объект input object ( Message )

Необходимый. Пример входного Message от пользователя.

output object ( Message )

Необходимый. Пример того, что модель должна вывести с учетом входных данных.

Генерироватьтекстовый ответ

Ответ модели, включая возможные завершения.

JSON-представление
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Поля
объект candidates[] object ( TextCompletion )

Ответы кандидата от модели.

объект filters[] object ( ContentFilter )

Набор метаданных фильтрации контента для текста приглашения и ответа.

Здесь указывается, какая SafetyCategory заблокировала кандидата в этом ответе, наименьшая HarmProbability , вызвавшая блокировку, а также параметр HarmThreshold для этой категории. Это указывает на наименьшее изменение в SafetySettings , которое необходимо для разблокировки хотя бы 1 ответа.

Блокировка настраивается с помощью SafetySettings в запросе (или параметров SafetySettings API по умолчанию).

объект safetyFeedback[] object ( SafetyFeedback )

Возвращает любые отзывы о безопасности, связанные с фильтрацией контента.

Завершение текста

Выходной текст, возвращаемый из модели.

JSON-представление
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Поля
output string

Только вывод. Сгенерированный текст возвращается из модели.

Объект safetyRatings[] object ( SafetyRating )

Оценки за безопасность ответа.

В каждой категории может быть не более одного рейтинга.

объект citationMetadata object ( CitationMetadata )

Только вывод. Информация о цитировании для output , созданных моделью, в этом TextCompletion .

Это поле может быть заполнено информацией об авторстве любого текста, включенного в output .

БезопасностьОбратная связь

Обратная связь по безопасности для всего запроса.

Это поле заполняется, если содержимое ввода и/или ответа заблокировано из-за настроек безопасности. Обратная связь по безопасности может существовать не для каждой категории вреда. Каждый SafetyFeedback возвращает настройки безопасности, использованные в запросе, а также наименьшую вероятность вреда, которую следует разрешить, чтобы вернуть результат.

JSON-представление
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Поля
объект rating object ( SafetyRating )

Рейтинг безопасности оценивается по содержанию.

объект setting object ( SafetySetting )

К запросу применены настройки безопасности.

Текстовая подсказка

Текст, передаваемый модели в качестве подсказки.

Модель будет использовать этот TextPrompt для создания завершения текста.

JSON-представление
{
  "text": string
}
Поля
text string

Необходимый. Текст подсказки.