GenerateContentResponse

Odpowiedź z modelu obsługującego wielu kandydatów.

Uwaga na temat ocen bezpieczeństwa i filtrowania treści. Są one zgłaszane zarówno w przypadku promptów w elemencie GenerateContentResponse.prompt_feedback, jak i w przypadku każdego kandydata w polu finishReason i w safetyRatings. Umowa dotycząca interfejsu API: – albo zwracane są wszystkie żądane kandydaty, albo żaden kandydat nie jest zwracany – żaden kandydat nie jest zwracany tylko wtedy, gdy coś jest nie tak z promptem (patrz: promptFeedback), – opinie na temat każdego kandydata są przesyłane w finishReason i safetyRatings.

Zapis JSON
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  },
  "usageMetadata": {
    object (UsageMetadata)
  }
}
Pola
candidates[]

object (Candidate)

Odpowiedzi kandydata z modelu.

promptFeedback

object (PromptFeedback)

Zwraca opinię promptu związaną z filtrami treści.

usageMetadata

object (UsageMetadata)

Tylko dane wyjściowe. Metadane dotyczące wykorzystania tokenów żądań generowania.

Kandydat

Kandydat do odpowiedzi wygenerowany na podstawie modelu.

Zapis JSON
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "index": integer
}
Pola
content

object (Content)

Tylko dane wyjściowe. Wygenerowane treści zwrócone z modelu.

finishReason

enum (FinishReason)

Opcjonalnie. Tylko dane wyjściowe. Powód, dla którego model przestał generować tokeny.

Jeśli pole jest puste, model nie przestał generować tokenów.

safetyRatings[]

object (SafetyRating)

Lista ocen bezpieczeństwa kandydata na odpowiedź.

Każda kategoria może mieć maksymalnie 1 ocenę.

citationMetadata

object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu kandydata wygenerowanego przez model.

To pole może zawierać informacje na temat recytacji dowolnego tekstu zawartego w content. Są to fragmenty, które są „recytowane” z materiałów chronionych prawem autorskim w danych treningowych podstawowych LLM.

tokenCount

integer

Tylko dane wyjściowe. Liczba tokenów tego kandydata.

index

integer

Tylko dane wyjściowe. Indeks kandydata na liście kandydatów.

FinishReason

Określa przyczynę, dla której model przestał generować tokeny.

Wartości w polu enum
FINISH_REASON_UNSPECIFIED Wartość domyślna. Ta wartość nie jest używana.
STOP Naturalny punkt zatrzymania modelu lub podana sekwencja zatrzymania.
MAX_TOKENS Osiągnięto maksymalną liczbę tokenów podaną w żądaniu.
SAFETY Treści kandydata zostały zgłoszone ze względów bezpieczeństwa.
RECITATION Treści kandydata zostały zgłoszone ze względu na recytację.
OTHER Przyczyna nieznana.

SafetyRating

Ocena bezpieczeństwa danego materiału.

Ocena bezpieczeństwa zawiera kategorię wyrządzenia szkody i poziom prawdopodobieństwa szkody w tej kategorii w przypadku danego fragmentu treści. Treści są klasyfikowane z myślą o bezpieczeństwie według wielu kategorii szkód, a także prawdopodobieństwo sklasyfikowania ich jako szkód.

Zapis JSON
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}
Pola
category

enum (HarmCategory)

Wymagane. Kategoria dla tej oceny.

probability

enum (HarmProbability)

Wymagane. Prawdopodobieństwo wyrządzenia szkody w przypadku tych treści.

blocked

boolean

Czy te treści zostały zablokowane z powodu tej oceny?

HarmProbability

Prawdopodobieństwo, że treść jest szkodliwa.

System klasyfikacji określa prawdopodobieństwo, że treści są niebezpieczne. Nie wskazuje to powagi wyrządzenia krzywdy danego materiału.

Wartości w polu enum
HARM_PROBABILITY_UNSPECIFIED Prawdopodobieństwo nie jest określone.
NEGLIGIBLE Istnieje duże prawdopodobieństwo, że treści będą niebezpieczne.
LOW Istnieje niewielkie prawdopodobieństwo, że treści będą niebezpieczne.
MEDIUM Istnieje średnie prawdopodobieństwo, że treści są niebezpieczne.
HIGH Istnieje duże prawdopodobieństwo, że treści są niebezpieczne.

CitationMetadata

Zbiór informacji o źródłach dodawanych do danego fragmentu treści.

Zapis JSON
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}
Pola
citationSources[]

object (CitationSource)

cytaty z informacjami o źródłach, z których pochodzą konkretne odpowiedzi.

CitationSource

Cytowanie źródła dotyczącego fragmentu konkretnej odpowiedzi.

Zapis JSON
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}
Pola
startIndex

integer

Opcjonalnie. Początek segmentu odpowiedzi przypisanej do tego źródła.

Indeks wskazuje początek segmentu (mierzony w bajtach).

endIndex

integer

Opcjonalnie. Koniec przypisanego segmentu, bez wyjątków.

uri

string

Opcjonalnie. Identyfikator URI przypisany jako źródło fragmentu tekstu.

license

string

Opcjonalnie. Licencja na projekt GitHub, która jest przypisana jako źródło segmentu.

Do cytowania kodu wymagane są informacje o licencji.

PromptFeedback

Zbiór metadanych opinii podanych w prompcie GenerateContentRequest.content.

Zapis JSON
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
Pola
blockReason

enum (BlockReason)

Opcjonalnie. Jeśli prompt został ustawiony, został zablokowany i nie zostały zwrócone żadne kandydaci. Przeredaguj prompt.

safetyRatings[]

object (SafetyRating)

Oceny pod kątem bezpieczeństwa promptu. Każda kategoria może mieć maksymalnie 1 ocenę.

BlockReason

Określa powód zablokowania promptu.

Wartości w polu enum
BLOCK_REASON_UNSPECIFIED Wartość domyślna. Ta wartość nie jest używana.
SAFETY Prompt został zablokowany ze względów bezpieczeństwa. Możesz sprawdzić zasadę safetyRatings, aby dowiedzieć się, która kategoria bezpieczeństwa ją zablokowała.
OTHER Prompt został zablokowany z nieznanych powodów.

UsageMetadata

Metadane dotyczące wykorzystania tokena żądania wygenerowania.

Zapis JSON
{
  "promptTokenCount": integer,
  "candidatesTokenCount": integer,
  "totalTokenCount": integer
}
Pola
promptTokenCount

integer

Liczba tokenów w prompcie. Jeśli ustawiona jest treść w pamięci podręcznej, nadal jest to łączny efektywny rozmiar promptu. Oznacza to, że obejmuje to liczbę tokenów w pamięci podręcznej.

candidatesTokenCount

integer

Łączna liczba tokenów wśród wygenerowanych kandydatów.

totalTokenCount

integer

Łączna liczba tokenów w żądaniu wygenerowania (prompt + kandydaci).