Конечная точка моделей позволяет программно выводить список доступных моделей и получать расширенные метаданные, такие как поддерживаемые функции и размеры контекстного окна. Подробнее см. в руководстве по моделям .
Метод: models.get
 Получает информацию о конкретной Model такую как номер версии, ограничения по токенам, параметры и другие метаданные. Подробную информацию о модели см. в руководстве по моделям Gemini .
Конечная точка
получитьhttps: / /generativelanguage.googleapis.com /v1beta /{name=models /*}Параметры пути
string nameОбязательно. Имя ресурса модели.
 Это имя должно совпадать с именем модели, возвращаемым методом models.list .
 Формат: models/{model} Он имеет вид models/{model} . 
Текст запроса
Тело запроса должно быть пустым.
Пример запроса
Питон
Идти
Оболочка
Тело ответа
 В случае успеха тело ответа содержит экземпляр Model . 
Метод: models.list
 Перечисляет Model , доступные через API Gemini.
Конечная точка
получитьhttps: / /generativelanguage.googleapis.com /v1beta /modelsПараметры запроса
pageSizeinteger Максимальное количество возвращаемых Models (на страницу).
Если не указано, будет возвращено 50 моделей на страницу. Этот метод возвращает не более 1000 моделей на страницу, даже если вы передадите большее значение pageSize.
string pageToken Токен страницы, полученный от предыдущего вызова models.list .
 Предоставьте pageToken возвращенный одним запросом, в качестве аргумента следующему запросу для получения следующей страницы.
 При пагинации все остальные параметры, предоставленные models.list должны соответствовать вызову, который предоставил токен страницы. 
Текст запроса
Тело запроса должно быть пустым.
Пример запроса
Питон
Идти
Оболочка
Тело ответа
 Ответ от ListModel , содержащий постраничный список моделей.
В случае успеха тело ответа содержит данные со следующей структурой:
models[]object ( Model )Возвращенные модели.
string nextPageToken Токен, который можно отправить как pageToken для получения следующей страницы.
Если это поле пропущено, страниц больше нет.
| JSON-представление | 
|---|
| {
  "models": [
    {
      object ( | 
Ресурс REST: модели
Ресурс: Модель
Информация о генеративной языковой модели.
string name Обязательно. Имя ресурса Model . Все допустимые значения см. в разделе «Варианты модели» .
 Формат: models/{model} с соглашением об именовании {model} :
- "{baseModelId}-{version}"
Примеры:
-  models/gemini-1.5-flash-001
string baseModelIdОбязательно. Имя базовой модели, передайте его в запрос на генерацию.
Примеры:
-  gemini-1.5-flash
string versionОбязательно. Номер версии модели.
 Это представляет основную версию ( 1.0 или 1.5 ) 
string displayNameУдобочитаемое название модели. Например, «Gemini 1.5 Flash».
Имя может иметь длину до 128 символов и может состоять из любых символов UTF-8.
string descriptionКраткое описание модели.
inputTokenLimitintegerМаксимальное количество входных токенов, разрешенное для этой модели.
outputTokenLimitintegerМаксимальное количество выходных токенов, доступных для этой модели.
string supportedGenerationMethods[]Поддерживаемые моделью методы генерации.
 Соответствующие имена методов API определяются как строки регистра Pascal, например generateMessage и generateContent . 
thinkingbooleanПоддерживает ли модель мышление.
temperaturenumberУправляет случайностью выходных данных.
 Значения могут находиться в диапазоне [0.0,maxTemperature] включительно. Более высокое значение приведет к более разнообразным ответам, в то время как значение, близкое к 0.0 обычно приводит к менее неожиданным ответам модели. Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели. 
number maxTemperatureМаксимальная температура, которую может использовать эта модель.
number topPДля отбора проб ядра .
 Ядерная выборка учитывает наименьший набор токенов, сумма вероятностей которых не менее topP . Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели. 
topKintegerДля выборки Top-k.
 Выборка top-k учитывает набор наиболее вероятных токенов topK . Это значение определяет значение по умолчанию, которое будет использоваться бэкендом при вызове модели. Если значение пустое, это означает, что модель не использует выборку top-k, и topK не допускается в качестве параметра генерации. 
| JSON-представление | 
|---|
| { "name": string, "baseModelId": string, "version": string, "displayName": string, "description": string, "inputTokenLimit": integer, "outputTokenLimit": integer, "supportedGenerationMethods": [ string ], "thinking": boolean, "temperature": number, "maxTemperature": number, "topP": number, "topK": integer } | 
Метод: models.predict
Выполняет запрос прогнозирования.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predictПараметры пути
string model Обязательно. Имя модели для прогнозирования. Формат: name=models/{model} . Имеет вид models/{model} . 
Текст запроса
Тело запроса содержит данные со следующей структурой:
instances[]value ( Value format)Обязательно. Экземпляры, являющиеся входными данными для вызова прогнозирования.
parametersvalue ( Value format)Необязательно. Параметры, управляющие вызовом прогноза.
Тело ответа
Ответное сообщение для [PredictionService.Predict].
В случае успеха тело ответа содержит данные со следующей структурой:
predictions[]value ( Value format)Результаты прогнозного вызова.
| JSON-представление | 
|---|
| { "predictions": [ value ] } | 
Метод: models.predictLongRunning
То же, что и models.predict, но возвращает LRO.
Конечная точка
постhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:predictLongRunningПараметры пути
string model Обязательно. Имя модели для прогнозирования. Формат: name=models/{model} . 
Текст запроса
Тело запроса содержит данные со следующей структурой:
instances[]value ( Value format)Обязательно. Экземпляры, являющиеся входными данными для вызова прогнозирования.
parametersvalue ( Value format)Необязательно. Параметры, управляющие вызовом прогноза.
Тело ответа
 В случае успеха тело ответа содержит экземпляр Operation .