Models

Конечная точка моделей предоставляет вам возможность программно составить список доступных моделей и получить расширенные метаданные, такие как поддерживаемые функции и размер контекстного окна. Подробнее читайте в руководстве по моделям .

Метод: models.get

Получает информацию о конкретной Model , такую ​​как номер ее версии, ограничения токенов, параметры и другие метаданные. Подробную информацию о моделях см. в руководстве по моделям Gemini .

Конечная точка

получите https://generativelanguage.googleapis.com/v1beta/{name=models/*}

Параметры пути

string name

Необходимый. Имя ресурса модели.

Это имя должно соответствовать имени модели, возвращаемому методом models.list .

Формат: models/{model} Принимает форму models/{model} .

Тело запроса

Тело запроса должно быть пустым.

Пример запроса

Питон

model_info = genai.get_model("models/gemini-1.5-flash-latest")
print(model_info)

Оболочка

curl https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash?key=$GOOGLE_API_KEY

Тело ответа

В случае успеха тело ответа содержит экземпляр Model .

Метод: models.list

Перечисляет Model , доступные через Gemini API.

Конечная точка

получить https://generativelanguage.googleapis.com/v1beta/models

Параметры запроса

pageSize integer

Максимальное количество возвращаемых Models (на странице).

Если не указано, на странице будет возвращено 50 моделей. Этот метод возвращает не более 1000 моделей на страницу, даже если вы передаете больший размер страницы.

string pageToken

Токен страницы, полученный в результате предыдущего вызова models.list .

Предоставьте pageToken возвращенный одним запросом, в качестве аргумента для следующего запроса для получения следующей страницы.

При разбиении на страницы все остальные параметры, предоставленные в models.list должны соответствовать вызову, который предоставил токен страницы.

Тело запроса

Тело запроса должно быть пустым.

Пример запроса

Питон

print("List of models that support generateContent:\n")
for m in genai.list_models():
    if "generateContent" in m.supported_generation_methods:
        print(m.name)

print("List of models that support embedContent:\n")
for m in genai.list_models():
    if "embedContent" in m.supported_generation_methods:
        print(m.name)

Оболочка

curl https://generativelanguage.googleapis.com/v1beta/models?key=$GOOGLE_API_KEY

Тело ответа

Ответ от ListModel , содержащий постраничный список моделей.

В случае успеха тело ответа содержит данные следующей структуры:

Поля
объект models[] object ( Model )

Возвращенные модели.

nextPageToken string PageToken

Токен, который можно отправить как pageToken для получения следующей страницы.

Если это поле опущено, страниц больше нет.

JSON-представление
{
  "models": [
    {
      object (Model)
    }
  ],
  "nextPageToken": string
}

Ресурс REST: модели

Ресурс: Модель

Информация о генеративной языковой модели.

Поля
string name

Необходимый. Имя ресурса Model . Все допустимые значения см. в разделе «Варианты модели» .

Формат: models/{model} с соглашением об именовании {model} :

  • "{baseModelId}-{версия}"

Примеры:

  • models/gemini-1.5-flash-001
string baseModelId

Необходимый. Имя базовой модели, передайте его в запрос на создание.

Примеры:

  • gemini-1.5-flash
string version

Необходимый. Номер версии модели.

Это основная версия ( 1.0 или 1.5 ).

string displayName

Читабельное имя модели. Например, «Джемини 1.5 Флэш».

Имя может иметь длину до 128 символов и может состоять из любых символов UTF-8.

string description

Краткое описание модели.

inputTokenLimit integer

Максимальное количество входных токенов, разрешенное для этой модели.

outputTokenLimit integer

Максимальное количество выходных жетонов, доступное для этой модели.

string supportedGenerationMethods[]

Поддерживаемые моделью методы генерации.

Соответствующие имена методов API определяются как строки регистра Pascal, такие generateMessage generateContent .

number temperature

Управляет случайностью вывода.

Значения могут находиться в диапазоне от [0.0,maxTemperature] включительно. Более высокое значение приведет к более разнообразным ответам, тогда как значение ближе к 0.0 обычно приводит к менее неожиданным ответам модели. Это значение указывает, что серверная часть будет использовать значение по умолчанию при вызове модели.

maxTemperature number температуры

Максимальная температура, которую может использовать данная модель.

number topP

Для отбора проб ядра .

Ядерная выборка рассматривает наименьший набор токенов, сумма вероятностей которых не меньше topP . Это значение определяет значение по умолчанию, которое будет использоваться серверной частью при вызове модели.

integer topK

Для выборки Top-k.

Выборка Top-k рассматривает набор наиболее вероятных токенов topK . Это значение определяет значение по умолчанию, которое будет использоваться серверной частью при вызове модели. Если оно пустое, это означает, что модель не использует выборку top-k, а topK не разрешен в качестве параметра генерации.

JSON-представление
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "maxTemperature": number,
  "topP": number,
  "topK": integer
}