GenerationConfig

Opcje konfiguracji generowania modelu i danych wyjściowych. W przypadku każdego modelu nie wszystkie parametry da się skonfigurować.

Zapis JSON
{
  "stopSequences": [
    string
  ],
  "responseMimeType": string,
  "candidateCount": integer,
  "maxOutputTokens": integer,
  "temperature": number,
  "topP": number,
  "topK": integer
}
Pola
stopSequences[]

string

Opcjonalnie. Zestaw sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli określisz parametr, interfejs API zostanie zatrzymany przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie częścią odpowiedzi.

responseMimeType

string

Opcjonalnie. Wyjściowy typ MIME wygenerowanego tekstu kandydującego. Obsługiwany typ MIME: text/plain: (domyślny) tekst wyjściowy. application/json: odpowiedź JSON w kandydatach.

candidateCount

integer

Opcjonalnie. Liczba wygenerowanych odpowiedzi do zwrócenia.

Obecnie ta wartość może wynosić tylko 1. Jeśli zasada nie jest skonfigurowana, domyślna wartość to 1.

maxOutputTokens

integer

Opcjonalnie. Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Uwaga: wartość domyślna różni się w zależności od modelu. Zapoznaj się z atrybutem Model.output_token_limit dla Model zwróconego przez funkcję getModel.

temperature

number

Opcjonalnie. Określa losowość danych wyjściowych.

Uwaga: wartość domyślna różni się w zależności od modelu. Zapoznaj się z atrybutem Model.temperature dla Model zwróconego przez funkcję getModel.

Wartości muszą mieścić się w zakresie od 0,0 do 2,0.

topP

number

Opcjonalnie. Maksymalne skumulowane prawdopodobieństwo, że tokeny mają być uwzględniane podczas próbkowania.

Model wykorzystuje łączone próbkowanie Top-K i jądra.

Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, aby uwzględniane były tylko te z nich, które są najbardziej prawdopodobne. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, a próbkowanie Nucleus ogranicza liczbę tokenów na podstawie skumulowanego prawdopodobieństwa.

Uwaga: wartość domyślna różni się w zależności od modelu. Zapoznaj się z atrybutem Model.top_p dla Model zwróconego przez funkcję getModel.

topK

integer

Opcjonalnie. Maksymalna liczba tokenów uwzględnianych podczas próbkowania.

Modele wykorzystują próbkowanie jądra lub łączone próbkowanie Top-K i próbkowanie jądra. Próbkowanie górnego K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Modele działające z próbkowaniem jądra nie zezwalają na ustawienie topK.

Uwaga: wartość domyślna różni się w zależności od modelu. Zapoznaj się z atrybutem Model.top_k dla Model zwróconego przez funkcję getModel. Puste pole topK w tabeli Model wskazuje, że model nie stosuje próbkowania górnego K i nie zezwala na ustawienie topK w żądaniach.