REST Resource: models

Zasób: model

Informacje o generatywnym modelu językowym.

Zapis JSON
{
  "name": string,
  "baseModelId": string,
  "version": string,
  "displayName": string,
  "description": string,
  "inputTokenLimit": integer,
  "outputTokenLimit": integer,
  "supportedGenerationMethods": [
    string
  ],
  "temperature": number,
  "topP": number,
  "topK": integer
}
Pola
name

string

Wymagane. Nazwa zasobu zasobu Model.

Format: models/{model} z konwencją nazewnictwa typu {model}:

  • „{baseModelId}–{version}”

Przykłady:

  • models/chat-bison-001
baseModelId

string

Wymagane. Nazwa modelu podstawowego, przekaż ją do żądania wygenerowania.

Przykłady:

  • chat-bison
version

string

Wymagane. Numer wersji modelu.

To jest wersja główna

displayName

string

Czytelna dla człowieka nazwa modelu. Na przykład „Czat Bison”.

Nazwa może składać się z maksymalnie 128 znaków i dowolnych znaków UTF-8.

description

string

Krótki opis modelu.

inputTokenLimit

integer

Maksymalna dozwolona liczba tokenów wejściowych w tym modelu.

outputTokenLimit

integer

Maksymalna liczba tokenów wyjściowych dostępnych dla tego modelu.

supportedGenerationMethods[]

string

Obsługiwane metody generowania modelu.

Nazwy metod są zdefiniowane jako ciągi znaków Pascal (np. generateMessage), które odpowiadają metodom interfejsu API.

temperature

number

Określa losowość danych wyjściowych.

Wartości mogą się mieścić w zakresie przekraczającym [0.0,1.0] (włącznie). Wartość bliższa 1.0 daje bardziej zróżnicowane odpowiedzi, a wartość bliższa 0.0 zwykle oznacza mniej zaskakujące odpowiedzi z modelu. Ta wartość określa, która będzie domyślnie używana przez backend podczas wywoływania modelu.

topP

number

Do próbkowania jądra.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństwa wynosi co najmniej topP. Ta wartość określa, która będzie domyślnie używana przez backend podczas wywoływania modelu.

topK

integer

Do próbkowania Top-K.

Próbkowanie górnego K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Ta wartość określa, która będzie domyślnie używana przez backend podczas wywoływania modelu. Jeśli wartość jest pusta, oznacza to, że model nie używa próbkowania górnego k, a topK nie jest dozwolonym parametrem generowania.

Metody

batchEmbedContents

Generuje wiele reprezentacji właściwościowych z modelu danego tekstu wejściowego w wywołaniu synchronicznym.

batchEmbedText

Generuje wiele reprezentacji właściwościowych z modelu danego tekstu wejściowego w wywołaniu synchronicznym.

countMessageTokens

Uruchamia tokenizatora modelu na ciągu znaków i zwraca liczbę tokenów.

countTextTokens

Uruchamia tokenizatora modelu na tekście i zwraca liczbę tokenów.

countTokens

Uruchamia tokenizatora modelu dla treści wejściowej i zwraca liczbę tokenów.

embedContent

Generuje osadzanie z modelu o podanej wartości wejściowej Content.

embedText

Generuje osadzanie z modelu z komunikatem wejściowym.

generateAnswer

Generuje opartą na danych odpowiedź modelu na podstawie danych wejściowych GenerateAnswerRequest.

generateContent

Generuje odpowiedź z modelu z danymi wejściowymi GenerateContentRequest.

generateMessage

Generuje odpowiedź z modelu z danymi wejściowymi MessagePrompt.

generateText

Generuje odpowiedź z modelu przy użyciu komunikatu wejściowego.

get

Pobiera informacje o konkretnym modelu.

list

Wyświetla listę modeli dostępnych za pomocą interfejsu API.

streamGenerateContent

Generuje odpowiedź przesyłaną strumieniowo z modelu z przypisaną wartością wejściową GenerateContentRequest.