GenerateContentResponse

여러 후보를 지원하는 모델의 응답입니다.

안전 등급 및 콘텐츠 필터링에 관한 참고사항 GenerateContentResponse.prompt_feedback의 프롬프트와 finishReasonsafetyRatings의 각 후보에 관해 모두 보고됩니다. API 계약은 다음과 같습니다. - 요청된 모든 후보가 반환되거나 후보가 아예 없음 - 프롬프트에 문제가 있는 경우에만 후보가 반환되지 않음 (promptFeedback 참고) - 각 후보에 대한 의견은 finishReasonsafetyRatings에 보고됩니다.

JSON 표현
{
  "candidates": [
    {
      object (Candidate)
    }
  ],
  "promptFeedback": {
    object (PromptFeedback)
  }
}
필드
candidates[]

object (Candidate)

모델의 후보 응답

promptFeedback

object (PromptFeedback)

콘텐츠 필터와 관련된 프롬프트의 의견을 반환합니다.

후보자

모델에서 생성된 응답 후보입니다.

JSON 표현
{
  "content": {
    object (Content)
  },
  "finishReason": enum (FinishReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  },
  "tokenCount": integer,
  "index": integer
}
필드
content

object (Content)

출력 전용. 모델에서 반환된 생성된 콘텐츠

finishReason

enum (FinishReason)

선택사항입니다. 출력 전용. 모델이 토큰 생성을 중지한 이유입니다.

비어 있으면 모델이 토큰 생성을 중지하지 않은 것입니다.

safetyRatings[]

object (SafetyRating)

응답 후보의 안전성 평점 목록입니다.

카테고리당 최대 하나의 평점이 있습니다.

citationMetadata

object (CitationMetadata)

출력 전용. 모델 생성 후보의 인용 정보입니다.

이 필드는 content에 포함된 텍스트에 관한 암송 정보로 채워질 수 있습니다. 이는 기본 LLM 학습 데이터의 저작권 보호 자료에서 '인용'된 문구입니다.

tokenCount

integer

출력 전용. 이 후보의 토큰 수입니다.

index

integer

출력 전용. 후보 목록에서 후보의 색인입니다.

FinishReason

모델이 토큰 생성을 중지한 이유를 정의합니다.

열거형
FINISH_REASON_UNSPECIFIED 기본값 이 값은 사용되지 않습니다.
STOP 모델 또는 제공된 정차 시퀀스의 자연스러운 중지 지점입니다.
MAX_TOKENS 요청에 지정된 최대 토큰 수에 도달했습니다.
SAFETY 후보 콘텐츠는 안전상의 이유로 신고되었습니다.
RECITATION 후보 콘텐츠는 암송을 위해 신고되었습니다.
OTHER 알 수 없는 이유입니다.

SafetyRating

콘텐츠에 대한 안전 등급입니다.

안전성 등급에는 콘텐츠에 대한 위해 카테고리 및 해당 카테고리의 위험 가능성 수준이 포함됩니다. 안전을 위해 콘텐츠가 여러 위험 카테고리로 분류되며, 위험 분류의 확률도 여기에 포함되어 있습니다.

JSON 표현
{
  "category": enum (HarmCategory),
  "probability": enum (HarmProbability),
  "blocked": boolean
}
필드
category

enum (HarmCategory)

필수 항목입니다. 이 평점의 카테고리입니다.

probability

enum (HarmProbability)

필수 항목입니다. 이 콘텐츠가 피해를 입을 확률입니다.

blocked

boolean

이 등급으로 인해 콘텐츠가 차단되었나요?

HarmProbability

콘텐츠가 유해할 가능성입니다.

분류 시스템은 콘텐츠가 안전하지 않을 확률을 제공합니다. 콘텐츠에 대한 피해의 심각성을 나타내지는 않습니다.

열거형
HARM_PROBABILITY_UNSPECIFIED 가능성이 지정되지 않았습니다.
NEGLIGIBLE 콘텐츠가 안전하지 않을 가능성이 거의 없습니다.
LOW 콘텐츠가 안전하지 않을 가능성이 낮습니다.
MEDIUM 콘텐츠가 안전하지 않을 가능성이 중간입니다.
HIGH 콘텐츠가 안전하지 않을 가능성이 높습니다.

CitationMetadata

콘텐츠의 소스 저작자 표시 모음입니다.

JSON 표현
{
  "citationSources": [
    {
      object (CitationSource)
    }
  ]
}
필드
citationSources[]

object (CitationSource)

특정 답변에 대한 출처 인용

CitationSource

특정 응답의 출처에 대한 인용입니다.

JSON 표현
{
  "startIndex": integer,
  "endIndex": integer,
  "uri": string,
  "license": string
}
필드
startIndex

integer

선택사항입니다. 이 소스로 인해 발생한 응답의 시작 부분입니다.

Index는 바이트 단위로 측정된 세그먼트의 시작을 나타냅니다.

endIndex

integer

선택사항입니다. 기여 세그먼트의 끝입니다(제외).

uri

string

선택사항입니다. 텍스트 일부의 소스로 특성화된 URI입니다.

license

string

선택사항입니다. 세그먼트의 소스로 지정된 GitHub 프로젝트의 라이선스입니다.

코드 인용을 사용하려면 라이선스 정보가 필요합니다.

PromptFeedback

GenerateContentRequest.content에 지정된 프롬프트에 관한 의견 메타데이터 집합입니다.

JSON 표현
{
  "blockReason": enum (BlockReason),
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ]
}
필드
blockReason

enum (BlockReason)

선택사항입니다. 설정된 경우 프롬프트가 차단되고 후보가 반환되지 않습니다. 프롬프트를 변경합니다.

safetyRatings[]

object (SafetyRating)

프롬프트 안전성에 대한 평점 카테고리당 최대 하나의 평점이 있습니다.

BlockReason

메시지가 차단된 이유를 지정합니다.

열거형
BLOCK_REASON_UNSPECIFIED 기본값 이 값은 사용되지 않습니다.
SAFETY 안전상의 이유로 메시지가 차단되었습니다. safetyRatings을 검사하여 어느 안전 카테고리를 차단했는지 확인할 수 있습니다.
OTHER 알 수 없는 이유로 인해 메시지가 차단되었습니다.