Метод: models.generateText
Генерирует ответ модели с учетом входного сообщения.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextПараметры пути
model
string
Необходимый. Имя Model
или TunedModel
используемое для создания завершения. Примеры: models/text-bison-001 TunedModels/sentence-translator-u3b7m. Он принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
prompt
object ( TextPrompt
)
Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.
При наличии запроса модель сгенерирует ответ TextCompletion, который прогнозируется как завершение входного текста.
safetySettings[]
object ( SafetySetting
)
Необязательный. Список уникальных экземпляров SafetySetting
для блокировки небезопасного контента.
это будет применяться к GenerateTextRequest.prompt
и GenerateTextResponse.candidates
. Для каждого типа SafetyCategory
не должно быть более одного параметра. API будет блокировать любые запросы и ответы, которые не соответствуют пороговым значениям, установленным этими настройками. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory
указанной в параметре SafetySettings. Если в списке нет SafetySetting
для данной SafetyCategory
, API будет использовать параметр безопасности по умолчанию для этой категории. Категории вреда HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS поддерживаются в текстовой службе.
stopSequences[]
string
Набор последовательностей символов (до 5), которые останавливают генерацию вывода. Если указано, API остановится при первом появлении последовательности остановки. Последовательность остановки не будет включена в ответ.
number
temperature
Необязательный. Управляет случайностью вывода. Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.temperature
Model
возвращающей функцию getModel
.
Значения могут находиться в диапазоне от [0,0,1,0] включительно. Значение ближе к 1,0 приведет к более разнообразным и творческим ответам, тогда как значение ближе к 0,0 обычно приводит к более прямым ответам модели.
integer
candidateCount
Необязательный. Количество сгенерированных ответов для возврата.
Это значение должно находиться в диапазоне [1, 8] включительно. Если не установлено, по умолчанию будет 1.
integer
maxOutputTokens
Необязательный. Максимальное количество токенов, которые можно включить в кандидата.
Если значение не установлено, по умолчанию будет установлено значение outputTokenLimit, указанное в спецификации Model
.
number
topP
Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Токены сортируются на основе присвоенных им вероятностей, поэтому учитываются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, тогда как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.
Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_p
Model
возвращающей функцию getModel
.
integer
topK
Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка Top-k рассматривает набор наиболее вероятных токенов topK
. По умолчанию 40.
Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_k
Model
возвращающей функцию getModel
.
Тело ответа
В случае успеха тело ответа содержит экземпляр GenerateTextResponse
.
Метод: models.countTextTokens
Запускает токенизатор модели для текста и возвращает количество токенов.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensПараметры пути
model
string
Необходимый. Имя ресурса модели. Это служит идентификатором для использования модели.
Это имя должно соответствовать имени модели, возвращаемому методом models.list
.
Формат: models/{model}
Принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
prompt
object ( TextPrompt
)
Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.
Тело ответа
Ответ от models.countTextTokens
.
Он возвращает tokenCount
модели для prompt
.
В случае успеха тело ответа содержит данные следующей структуры:
integer
tokenCount
Количество токенов, в которые model
разбивает prompt
.
Всегда неотрицательный.
JSON-представление |
---|
{ "tokenCount": integer } |
Метод: models.generateMessage
Генерирует ответ модели с учетом входного MessagePrompt
.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageПараметры пути
model
string
Необходимый. Имя модели, которую нужно использовать.
Формат: name=models/{model}
. Он принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
prompt
object ( MessagePrompt
)
Необходимый. Структурированный текстовый ввод, подаваемый модели в качестве подсказки.
При наличии подсказки модель вернет то, что, по ее прогнозам, станет следующим сообщением в обсуждении.
number
temperature
Необязательный. Управляет случайностью вывода.
Значения могут находиться в диапазоне от [0.0,1.0]
включительно. Значение ближе к 1.0
приведет к более разнообразным ответам, тогда как значение ближе к 0.0
обычно приводит к менее неожиданным ответам модели.
integer
candidateCount
Необязательный. Количество сгенерированных ответных сообщений, которые необходимо вернуть.
Это значение должно находиться в диапазоне [1, 8]
включительно. Если не установлено, по умолчанию будет установлено значение 1
.
number
topP
Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых не меньше topP
.
integer
topK
Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка Top-k рассматривает набор наиболее вероятных токенов topK
.
Тело ответа
Ответ модели.
Сюда входят сообщения кандидатов и история разговоров в виде сообщений в хронологическом порядке.
В случае успеха тело ответа содержит данные следующей структуры:
candidates[]
object ( Message
)
Ответные сообщения кандидата от модели.
messages[]
object ( Message
)
История разговоров, используемая моделью.
filters[]
object ( ContentFilter
)
Набор метаданных фильтрации контента для текста приглашения и ответа.
Здесь указывается, какая SafetyCategory
заблокировала кандидата в этом ответе, наименьшая вероятность HarmProbability
, вызвавшая блокировку, а также параметр HarmThreshold для этой категории.
JSON-представление |
---|
{ "candidates": [ { object ( |
Метод: models.countMessageTokens
Запускает токенизатор модели для строки и возвращает количество токенов.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensПараметры пути
model
string
Необходимый. Имя ресурса модели. Это служит идентификатором для использования модели.
Это имя должно соответствовать имени модели, возвращаемому методом models.list
.
Формат: models/{model}
Принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
prompt
object ( MessagePrompt
)
Необходимый. Запрос, количество токенов которого должно быть возвращено.
Тело ответа
Ответ от models.countMessageTokens
.
Он возвращает tokenCount
модели для prompt
.
В случае успеха тело ответа содержит данные следующей структуры:
integer
tokenCount
Количество токенов, в которые model
разбивает prompt
.
Всегда неотрицательный.
JSON-представление |
---|
{ "tokenCount": integer } |
Метод: models.embedText
Генерирует внедрение из модели с учетом входного сообщения.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextПараметры пути
model
string
Необходимый. Имя модели, которое будет использоваться в формате model=models/{model}. Он принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
text
string
Необязательный. Входной текст в произвольной форме, который модель превратит во внедрение.
Метод: models.batchEmbedText
Создает несколько внедрений из модели с учетом входного текста в синхронном вызове.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextПараметры пути
model
string
Необходимый. Имя Model
, используемой для создания внедрения. Примеры: models/embedding-gecko-001. Он принимает форму models/{model}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
texts[]
string
Необязательный. Входные тексты в свободной форме, которые модель преобразует во внедрение. Текущий лимит — 100 текстов, при превышении которых будет выдаваться ошибка.
requests[]
object ( EmbedTextRequest
)
Необязательный. Встраивание запросов на пакет. Можно задать только один из texts
или requests
.
Тело ответа
Ответ на EmbedTextRequest.
В случае успеха тело ответа содержит данные следующей структуры:
embeddings[]
object ( Embedding
)
Только вывод. Вложения, созданные на основе входного текста.
JSON-представление |
---|
{
"embeddings": [
{
object ( |
Встроитьтекстовый запрос
Запрос на встраивание текста из модели.
model
string
Необходимый. Имя модели, которое будет использоваться в формате model=models/{model}.
text
string
Необязательный. Входной текст в произвольной форме, который модель превратит во внедрение.
JSON-представление |
---|
{ "model": string, "text": string } |
Метод: TunedModels.generateText
Генерирует ответ модели с учетом входного сообщения.
Конечная точка
опубликуйте https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextПараметры пути
model
string
Необходимый. Имя Model
или TunedModel
используемое для создания завершения. Примеры: models/text-bison-001 TunedModels/sentence-translator-u3b7m Он принимает форму tunedModels/{tunedmodel}
.
Тело запроса
Тело запроса содержит данные следующей структуры:
prompt
object ( TextPrompt
)
Необходимый. Входной текст в произвольной форме, передаваемый модели в виде подсказки.
При наличии запроса модель сгенерирует ответ TextCompletion, который прогнозируется как завершение входного текста.
safetySettings[]
object ( SafetySetting
)
Необязательный. Список уникальных экземпляров SafetySetting
для блокировки небезопасного контента.
это будет применяться к GenerateTextRequest.prompt
и GenerateTextResponse.candidates
. Для каждого типа SafetyCategory
не должно быть более одного параметра. API будет блокировать любые запросы и ответы, которые не соответствуют пороговым значениям, установленным этими настройками. Этот список переопределяет настройки по умолчанию для каждой SafetyCategory
указанной в параметре SafetySettings. Если в списке нет SafetySetting
для данной SafetyCategory
, API будет использовать параметр безопасности по умолчанию для этой категории. Категории вреда HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS поддерживаются в текстовой службе.
stopSequences[]
string
Набор последовательностей символов (до 5), которые останавливают генерацию вывода. Если указано, API остановится при первом появлении последовательности остановки. Последовательность остановки не будет включена в ответ.
number
temperature
Необязательный. Управляет случайностью вывода. Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.temperature
Model
возвращающей функцию getModel
.
Значения могут находиться в диапазоне от [0,0,1,0] включительно. Значение ближе к 1,0 приведет к более разнообразным и творческим ответам, тогда как значение ближе к 0,0 обычно приводит к более прямым ответам модели.
integer
candidateCount
Необязательный. Количество сгенерированных ответов для возврата.
Это значение должно находиться в диапазоне [1, 8] включительно. Если не установлено, по умолчанию будет 1.
integer
maxOutputTokens
Необязательный. Максимальное количество токенов, которые можно включить в кандидата.
Если значение не установлено, по умолчанию будет установлено значение outputTokenLimit, указанное в спецификации Model
.
number
topP
Необязательный. Максимальная совокупная вероятность токенов, которую следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Токены сортируются на основе присвоенных им вероятностей, поэтому учитываются только наиболее вероятные токены. Выборка Top-k напрямую ограничивает максимальное количество рассматриваемых токенов, тогда как выборка Nucleus ограничивает количество токенов на основе кумулятивной вероятности.
Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_p
Model
возвращающей функцию getModel
.
integer
topK
Необязательный. Максимальное количество токенов, которые следует учитывать при выборке.
Модель использует комбинированную выборку Top-k и ядра.
Выборка Top-k рассматривает набор наиболее вероятных токенов topK
. По умолчанию 40.
Примечание. Значение по умолчанию зависит от модели. См. атрибут Model.top_k
Model
возвращающей функцию getModel
.
Тело ответа
В случае успеха тело ответа содержит экземпляр GenerateTextResponse
.
КонтентФильтр
Метаданные фильтрации контента, связанные с обработкой одного запроса.
ContentFilter содержит причину и необязательную вспомогательную строку. Причина может быть неустановленной.
reason
enum ( BlockedReason
)
Причина, по которой контент был заблокирован во время обработки запроса.
string
message
Строка, которая более подробно описывает поведение фильтрации.
JSON-представление |
---|
{
"reason": enum ( |
БлокедПричина
Список причин, по которым контент мог быть заблокирован.
Перечисления | |
---|---|
BLOCKED_REASON_UNSPECIFIED | Причина блокировки не указана. |
SAFETY | Контент заблокирован настройками безопасности. |
OTHER | Контент был заблокирован, но причина не указана. |
Встраивание
Список чисел с плавающей запятой, представляющих встраивание.
value[]
number
Вложенные значения.
JSON-представление |
---|
{ "value": [ number ] } |
Сообщение
Базовая единица структурированного текста.
Message
включает в себя author
и content
Message
.
author
используется для пометки сообщений, когда они передаются в модель в виде текста.
string
content
Необходимый. Текстовое содержимое структурированного Message
.
citationMetadata
object ( CitationMetadata
)
Только вывод. Информация о цитировании content
, созданного моделью, в этом Message
.
Если это Message
было создано как выходные данные модели, это поле может быть заполнено информацией об атрибуции любого текста, включенного в content
. Это поле используется только при выводе.
JSON-представление |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
СообщениеПодсказка
Весь структурированный входной текст передается модели в виде подсказки.
MessagePrompt
содержит структурированный набор полей, которые обеспечивают контекст для диалога, примеры пар сообщений пользовательского ввода/вывода модели, которые заставляют модель реагировать по-разному, а также историю разговора или список сообщений, представляющих чередующиеся повороты разговора между Пользователь и модель.
context
string
Необязательный. Текст, который необходимо сначала предоставить модели, чтобы обосновать ответ.
Если не пусто, этот context
будет передан модели сначала перед examples
и messages
. При использовании context
обязательно предоставляйте его при каждом запросе, чтобы обеспечить непрерывность.
Это поле может быть описанием вашего запроса к модели, которое поможет предоставить контекст и направить ответы. Примеры: «Переведите фразу с английского на французский». или «Учитывая утверждение, классифицируйте его настроение как счастливое, грустное или нейтральное».
Все, что включено в это поле, будет иметь приоритет над историей сообщений, если общий размер входных данных превышает inputTokenLimit
модели и входной запрос усекается.
examples[]
object ( Example
)
Необязательный. Примеры того, что должна генерировать модель.
Сюда входит как ввод пользователя, так и ответ, который должна имитировать модель.
Эти examples
обрабатываются идентично сообщениям диалога, за исключением того, что они имеют приоритет над историей в messages
: если общий размер входных данных превышает inputTokenLimit
модели, входные данные будут обрезаны. Элементы будут удалены из messages
перед examples
.
messages[]
object ( Message
)
Необходимый. Снимок истории недавних разговоров, отсортированный в хронологическом порядке.
Ходы чередуются между двумя авторами.
Если общий размер входных данных превышает inputTokenLimit
модели, входные данные будут обрезаны: самые старые элементы будут удалены из messages
.
Пример
Пример ввода/вывода, используемый для указания модели.
Он демонстрирует, как модель должна реагировать или форматировать свой ответ.
input
object ( Message
)
Необходимый. Пример входного Message
от пользователя.
output
object ( Message
)
Необходимый. Пример того, что модель должна вывести с учетом входных данных.
Генерироватьтекстовый ответ
Ответ модели, включая возможные завершения.
candidates[]
object ( TextCompletion
)
Ответы кандидата от модели.
filters[]
object ( ContentFilter
)
Набор метаданных фильтрации контента для текста приглашения и ответа.
Здесь указывается, какая SafetyCategory
заблокировала кандидата в этом ответе, наименьшая вероятность HarmProbability
, вызвавшая блокировку, а также параметр HarmThreshold для этой категории. Это указывает на наименьшее изменение в SafetySettings
, которое необходимо для разблокировки хотя бы 1 ответа.
Блокировка настраивается с помощью SafetySettings
в запросе (или параметров SafetySettings
API по умолчанию).
safetyFeedback[]
object ( SafetyFeedback
)
Возвращает любые отзывы о безопасности, связанные с фильтрацией контента.
JSON-представление |
---|
{ "candidates": [ { object ( |
Завершение текста
Выходной текст, возвращаемый из модели.
output
string
Только вывод. Сгенерированный текст возвращается из модели.
safetyRatings[]
object ( SafetyRating
)
Оценки за безопасность ответа.
В каждой категории может быть не более одного рейтинга.
citationMetadata
object ( CitationMetadata
)
Только вывод. Информация о цитировании для output
созданных моделью, в этом TextCompletion
.
Это поле может быть заполнено информацией об авторстве любого текста, включенного в output
.
JSON-представление |
---|
{ "output": string, "safetyRatings": [ { object ( |
БезопасностьОбратная связь
Обратная связь по безопасности для всего запроса.
Это поле заполняется, если содержимое ввода и/или ответа заблокировано из-за настроек безопасности. Обратная связь по безопасности может существовать не для каждой категории вреда. Каждый SafetyFeedback возвращает настройки безопасности, использованные в запросе, а также наименьшую вероятность вреда, которую следует разрешить, чтобы вернуть результат.
rating
object ( SafetyRating
)
Рейтинг безопасности оценивается по содержанию.
setting
object ( SafetySetting
)
К запросу применены настройки безопасности.
JSON-представление |
---|
{ "rating": { object ( |