Gemini API는 이미지, 오디오, 코드, 도구 등을 사용한 콘텐츠 생성을 지원합니다. 이러한 각 기능에 대한 자세한 내용은 작업 중심의 샘플 코드를 읽고 확인하거나 종합적인 가이드를 읽어보세요.
메서드: models.generateContent
- 엔드포인트
- 경로 매개변수
- 요청 본문
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- 응답 본문
- 승인 범위
- 요청 예시 <ph type="x-smartling-placeholder">
입력 GenerateContentRequest
가 주어지면 모델 응답을 생성합니다. 자세한 사용 정보는 텍스트 생성 가이드를 참고하세요. 입력 기능은 조정된 모델을 비롯한 모델마다 다릅니다. 자세한 내용은 모델 가이드 및 조정 가이드를 참고하세요.
엔드포인트
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 게시물
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContent
경로 매개변수
model
string
필수 항목입니다. 완료를 생성하는 데 사용할 Model
의 이름입니다.
형식: name=models/{model}
models/{model}
형식을 사용합니다.
요청 본문
요청 본문에는 다음과 같은 구조의 데이터가 포함됩니다.
<ph type="x-smartling-placeholder">contents[]
object (Content
)
필수 항목입니다. 모델과의 현재 대화 콘텐츠입니다.
싱글턴 쿼리의 경우 이는 단일 인스턴스입니다. 채팅과 같은 멀티턴 쿼리의 경우 이 필드는 대화 기록과 최신 요청을 포함하는 반복 필드입니다.
tools[]
object (Tool
)
toolConfig
object (ToolConfig
)
선택사항입니다. 요청에 지정된 Tool
의 도구 구성입니다. 사용 예는 함수 호출 가이드를 참고하세요.
safetySettings[]
object (SafetySetting
)
선택사항입니다. 안전하지 않은 콘텐츠를 차단하기 위한 고유한 SafetySetting
인스턴스 목록입니다.
이는 GenerateContentRequest.contents
및 GenerateContentResponse.candidates
에 적용됩니다. 각 SafetyCategory
유형에 대해 두 개 이상의 설정이 있어서는 안 됩니다. API는 이러한 설정에 의해 설정된 기준을 충족하지 못하는 모든 콘텐츠 및 응답을 차단합니다. 이 목록은 safetySettings에 지정된 각 SafetyCategory
의 기본 설정을 재정의합니다. 목록에 제공된 특정 SafetyCategory
에 SafetySetting
가 없는 경우 API는 해당 카테고리의 기본 안전 설정을 사용합니다. 유해한 카테고리 HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT가 지원됩니다. 사용 가능한 안전 설정에 대한 자세한 내용은 가이드를 참고하세요. 또한 AI 애플리케이션에 안전 고려사항을 통합하는 방법을 알아보려면 안전 안내를 참고하세요.
generationConfig
object (GenerationConfig
)
선택사항입니다. 모델 생성 및 출력을 위한 구성 옵션입니다.
cachedContent
string
선택사항입니다. 예측을 제공하기 위한 컨텍스트로 사용하기 위해 캐시된 콘텐츠의 이름입니다. 형식: cachedContents/{cachedContent}
요청 예시
텍스트
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
이미지
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
오디오
Python
Node.js
Shell
동영상
Python
Node.js
Go
Shell
Python
Shell
채팅
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
캐시
Python
Node.js
조정된 모델
Python
JSON 모드
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
코드 실행
Python
Kotlin
자바
함수 호출
Python
Node.js
Shell
Kotlin
Swift
Dart
자바
생성 구성
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
안전 설정
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
시스템 안내
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
응답 본문
성공한 경우 응답 본문에 GenerateContentResponse
의 인스턴스가 포함됩니다.
메서드: models.streamGenerateContent
- 엔드포인트
- 경로 매개변수
- 요청 본문
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- 응답 본문
- 승인 범위
- 요청 예시 <ph type="x-smartling-placeholder">
입력 GenerateContentRequest
가 주어지면 모델에서 스트리밍 응답을 생성합니다.
엔드포인트
<ph type="x-smartling-placeholder"></ph> <ph type="x-smartling-placeholder"></ph> 게시물
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContent
경로 매개변수
model
string
필수 항목입니다. 완료를 생성하는 데 사용할 Model
의 이름입니다.
형식: name=models/{model}
models/{model}
형식을 사용합니다.
요청 본문
요청 본문에는 다음과 같은 구조의 데이터가 포함됩니다.
<ph type="x-smartling-placeholder">contents[]
object (Content
)
필수 항목입니다. 모델과의 현재 대화 콘텐츠입니다.
싱글턴 쿼리의 경우 이는 단일 인스턴스입니다. 채팅과 같은 멀티턴 쿼리의 경우 이 필드는 대화 기록과 최신 요청을 포함하는 반복 필드입니다.
tools[]
object (Tool
)
toolConfig
object (ToolConfig
)
선택사항입니다. 요청에 지정된 Tool
의 도구 구성입니다. 사용 예는 함수 호출 가이드를 참고하세요.
safetySettings[]
object (SafetySetting
)
선택사항입니다. 안전하지 않은 콘텐츠를 차단하기 위한 고유한 SafetySetting
인스턴스 목록입니다.
이는 GenerateContentRequest.contents
및 GenerateContentResponse.candidates
에 적용됩니다. 각 SafetyCategory
유형에 대해 두 개 이상의 설정이 있어서는 안 됩니다. API는 이러한 설정에 의해 설정된 기준을 충족하지 못하는 모든 콘텐츠 및 응답을 차단합니다. 이 목록은 safetySettings에 지정된 각 SafetyCategory
의 기본 설정을 재정의합니다. 목록에 제공된 특정 SafetyCategory
에 SafetySetting
가 없는 경우 API는 해당 카테고리의 기본 안전 설정을 사용합니다. 유해한 카테고리 HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT가 지원됩니다. 사용 가능한 안전 설정에 대한 자세한 내용은 가이드를 참고하세요. 또한 AI 애플리케이션에 안전 고려사항을 통합하는 방법을 알아보려면 안전 안내를 참고하세요.
generationConfig
object (GenerationConfig
)
선택사항입니다. 모델 생성 및 출력을 위한 구성 옵션입니다.
cachedContent
string
선택사항입니다. 예측을 제공하기 위한 컨텍스트로 사용하기 위해 캐시된 콘텐츠의 이름입니다. 형식: cachedContents/{cachedContent}
요청 예시
텍스트
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
이미지
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
오디오
Python
Shell
동영상
Python
Node.js
Go
Shell
Python
Shell
채팅
Python
Node.js
Go
Shell
Kotlin
Swift
Dart
자바
응답 본문
요청이 성공하면 응답 본문에 GenerateContentResponse
인스턴스 스트림이 포함됩니다.
GenerateContentResponse
- JSON 표현
- PromptFeedback
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- BlockReason
- UsageMetadata
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
여러 후보 응답을 지원하는 모델의 응답입니다.
GenerateContentResponse.prompt_feedback
의 프롬프트와 finishReason
및 safetyRatings
의 각 후보 단어에 대해 안전 등급 및 콘텐츠 필터링이 보고됩니다. API: - 요청된 모든 후보자를 반환하거나 하나도 반환하지 않음 - 프롬프트에 문제가 있는 경우에만 후보를 반환하지 않습니다 (promptFeedback
확인). - finishReason
및 safetyRatings
에서 각 후보자에 대한 의견을 보고합니다.
candidates[]
object (Candidate
)
모델의 후보 응답입니다.
promptFeedback
object (PromptFeedback
)
콘텐츠 필터와 관련된 프롬프트의 의견을 반환합니다.
usageMetadata
object (UsageMetadata
)
출력 전용입니다. 생성 요청의 메타데이터 토큰 사용량입니다.
JSON 표현 |
---|
{ "candidates": [ { object ( |
PromptFeedback
GenerateContentRequest.content
에 지정된 프롬프트의 의견 메타데이터 집합입니다.
blockReason
enum (BlockReason
)
선택사항입니다. 설정된 경우 프롬프트가 차단되며 후보가 반환되지 않습니다. 프롬프트를 다르게 표현합니다.
safetyRatings[]
object (SafetyRating
)
프롬프트의 안전성을 위한 평점입니다. 카테고리당 최대 1개의 평점이 있습니다.
JSON 표현 |
---|
{ "blockReason": enum ( |
BlockReason
메시지가 차단된 이유를 지정합니다.
열거형 | |
---|---|
BLOCK_REASON_UNSPECIFIED |
기본값 이 값은 사용되지 않습니다. |
SAFETY |
안전상의 이유로 메시지가 차단되었습니다. safetyRatings 를 검사하여 차단된 안전 카테고리를 파악합니다. |
OTHER |
알 수 없는 이유로 메시지가 차단되었습니다. |
BLOCKLIST |
용어 차단 목록에 포함된 용어로 인해 프롬프트가 차단되었습니다. |
PROHIBITED_CONTENT |
금지된 콘텐츠로 인해 메시지가 차단되었습니다. |
UsageMetadata
생성 요청의 토큰 사용에 관한 메타데이터입니다.
promptTokenCount
integer
프롬프트의 토큰 수입니다. cachedContent
가 설정되어 있으면 여전히 총 유효 프롬프트 크기입니다. 즉, 캐시된 콘텐츠의 토큰 수가 포함됩니다.
cachedContentTokenCount
integer
프롬프트의 캐시된 부분 (캐시된 콘텐츠)의 토큰 수
candidatesTokenCount
integer
생성된 모든 응답 후보의 총 토큰 수입니다.
totalTokenCount
integer
생성 요청의 총 토큰 수입니다 (프롬프트 + 응답 후보).
JSON 표현 |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
후보자
- JSON 표현
- FinishReason
- GroundingAttribution
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- AttributionSourceId
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- GroundingPassageId
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
- SemanticRetrieverChunk
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
모델에서 생성된 응답 후보입니다.
content
object (Content
)
출력 전용입니다. 모델에서 반환된 생성된 콘텐츠입니다.
finishReason
enum (FinishReason
)
선택사항입니다. 출력 전용입니다. 모델 토큰 생성이 중지된 이유입니다.
비어 있으면 모델이 토큰 생성을 중지하지 않은 것입니다.
safetyRatings[]
object (SafetyRating
)
응답 후보의 안전성에 관한 평점 목록입니다.
카테고리당 최대 1개의 평점이 있습니다.
citationMetadata
object (CitationMetadata
)
출력 전용입니다. 모델 생성 후보에 대한 인용 정보입니다.
이 필드는 content
에 포함된 텍스트에 대한 인용 정보로 채워질 수 있습니다. '인용'한 구절 저작권 보호 자료에서 추출하는 방법을 학습합니다.
tokenCount
integer
출력 전용입니다. 이 후보의 토큰 수입니다.
groundingAttributions[]
object (GroundingAttribution
)
출력 전용입니다. 근거에 기반한 답변에 기여한 소스의 기여 분석 정보입니다.
이 필드는 GenerateAnswer
호출을 위해 채워집니다.
index
integer
출력 전용입니다. 응답 후보 목록에서 후보의 색인입니다.
JSON 표현 |
---|
{ "content": { object ( |
FinishReason
모델이 토큰 생성을 중지한 이유를 정의합니다.
열거형 | |
---|---|
FINISH_REASON_UNSPECIFIED |
기본값 이 값은 사용되지 않습니다. |
STOP |
모델의 자연스러운 정지 지점이거나 제공된 정지 시퀀스입니다. |
MAX_TOKENS |
요청에 지정된 최대 토큰 수에 도달했습니다. |
SAFETY |
응답 후보 콘텐츠가 안전상의 이유로 신고되었습니다. |
RECITATION |
응답 후보 콘텐츠가 인용 이유로 신고되었습니다. |
LANGUAGE |
응답 후보 콘텐츠가 지원되지 않는 언어를 사용하여 신고되었습니다. |
OTHER |
알 수 없는 이유입니다. |
BLOCKLIST |
콘텐츠에 금지된 용어가 포함되어 있어 토큰 생성이 중지되었습니다. |
PROHIBITED_CONTENT |
금지된 콘텐츠가 포함되어 있을 수 있어 토큰 생성이 중지되었습니다. |
SPII |
콘텐츠에 민감한 개인 식별 정보 (SPII)가 포함되어 있을 수 있어 토큰 생성이 중지되었습니다. |
MALFORMED_FUNCTION_CALL |
모델에서 생성한 함수 호출이 잘못되었습니다. |
GroundingAttribution
답변에 기여한 소스의 출처입니다.
sourceId
object (AttributionSourceId
)
출력 전용입니다. 이 기여 분석에 기여한 소스의 식별자입니다.
content
object (Content
)
이 속성을 구성하는 소스 콘텐츠의 그라운딩
JSON 표현 |
---|
{ "sourceId": { object ( |
AttributionSourceId
이 기여 분석에 기여한 소스의 식별자입니다.
통합 필드 source
.
source
는 다음 중 하나여야 합니다.
groundingPassage
object (GroundingPassageId
)
인라인 문구의 식별자입니다.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
시맨틱 검색기를 통해 가져온 Chunk
의 식별자입니다.
JSON 표현 |
---|
{ // Union field |
GroundingPassageId
GroundingPassage
내 부분의 식별자입니다.
passageId
string
출력 전용입니다. GenerateAnswerRequest
의 GroundingPassage.id
와 일치하는 문구의 ID입니다.
partIndex
integer
출력 전용입니다. GenerateAnswerRequest
의 GroundingPassage.content
내 부분의 색인입니다.
JSON 표현 |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
SemanticRetrieverConfig
를 사용하여 GenerateAnswerRequest
에 지정된 Semantic Retriever를 통해 검색된 Chunk
의 식별자입니다.
source
string
출력 전용입니다. 요청의 SemanticRetrieverConfig.source
와 일치하는 소스의 이름입니다. 예: corpora/123
또는 corpora/123/documents/abc
chunk
string
출력 전용입니다. 속성 텍스트가 포함된 Chunk
의 이름입니다. 예: corpora/123/documents/abc/chunks/xyz
JSON 표현 |
---|
{ "source": string, "chunk": string } |
CitationMetadata
- JSON 표현
- CitationSource
<ph type="x-smartling-placeholder">
- </ph>
- JSON 표현
콘텐츠의 소스 저작자 표시 모음입니다.
citationSources[]
object (CitationSource
)
특정 응답의 출처 인용
JSON 표현 |
---|
{
"citationSources": [
{
object ( |
CitationSource
특정 응답의 일부분에 대한 출처 인용입니다.
startIndex
integer
선택사항입니다. 이 소스가 기여한 응답 세그먼트의 시작입니다.
색인은 바이트 단위로 측정된 세그먼트의 시작을 나타냅니다.
endIndex
integer
선택사항입니다. 기여 세그먼트의 끝(제외)입니다.
uri
string
선택사항입니다. 텍스트 일부의 소스로 지정된 URI입니다.
license
string
선택사항입니다. 세그먼트의 소스로 기여도가 부여된 GitHub 프로젝트의 라이선스입니다.
코드 인용을 위해 라이선스 정보가 필요합니다.
JSON 표현 |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
모델 생성 및 출력을 위한 구성 옵션입니다. 모든 모델에서 모든 매개변수를 구성할 수 있는 것은 아닙니다.
stopSequences[]
string
선택사항입니다. 출력 생성을 중지하는 문자 시퀀스 (최대 5개)입니다. 지정하면 stop_sequence
가 처음 표시될 때 API가 중지됩니다. 중지 시퀀스는 응답에 포함되지 않습니다.
responseMimeType
string
선택사항입니다. 생성된 후보 텍스트의 MIME 유형입니다. 지원되는 MIME 유형은 text/plain
: (기본값) 텍스트 출력입니다. application/json
: 응답 후보의 JSON 응답입니다. 지원되는 모든 텍스트 MIME 유형 목록은 문서를 참조하세요.
responseSchema
object (Schema
)
선택사항입니다. 생성된 후보 텍스트의 출력 스키마입니다. 스키마는 OpenAPI 스키마의 하위 집합이어야 하며 객체, 기본형 또는 배열일 수 있습니다.
설정하는 경우 호환되는 responseMimeType
도 설정해야 합니다. 호환되는 MIME 유형: application/json
: JSON 응답의 스키마입니다. 자세한 내용은 JSON 텍스트 생성 가이드를 참고하세요.
candidateCount
integer
선택사항입니다. 반환할 생성된 응답 수입니다.
현재 이 값은 1로만 설정할 수 있습니다. 설정하지 않으면 기본값은 1입니다.
maxOutputTokens
integer
선택사항입니다. 응답 후보에 포함할 최대 토큰 수입니다.
참고: 기본값은 모델에 따라 다릅니다. getModel
함수에서 반환된 Model
의 Model.output_token_limit
속성을 참고하세요.
temperature
number
선택사항입니다. 출력의 무작위성을 제어합니다.
참고: 기본값은 모델에 따라 다릅니다. getModel
함수에서 반환된 Model
의 Model.temperature
속성을 참고하세요.
값의 범위는 [0.0, 2.0]입니다.
topP
number
선택사항입니다. 샘플링 시 고려할 토큰의 최대 누적 확률입니다.
이 모델은 Top-k 및 Top-p (핵) 샘플링을 사용합니다.
토큰은 할당된 확률에 따라 정렬되므로 가능성이 가장 높은 토큰만 고려됩니다. Top-K 샘플링은 고려할 최대 토큰 수를 직접 제한하는 반면 Nucleus 샘플링은 누적 확률을 기준으로 토큰 수를 제한합니다.
참고: 기본값은 Model
에 따라 다르며 getModel
함수에서 반환된 Model.top_p
속성으로 지정됩니다. topK
속성이 비어 있으면 모델이 최상위 k 샘플링을 적용하지 않으며 요청에 topK
설정을 허용하지 않음을 나타냅니다.
topK
integer
선택사항입니다. 샘플링 시 고려할 최대 토큰 수입니다.
Gemini 모델은 Top-p (핵) 샘플링 또는 Top-k 샘플링과 핵 샘플링의 조합을 사용합니다. Top-k 샘플링은 확률이 가장 높은 topK
토큰 집합을 고려합니다. 핵 샘플링으로 실행되는 모델은 최상위 K 설정을 허용하지 않습니다.
참고: 기본값은 Model
에 따라 다르며 getModel
함수에서 반환된 Model.top_p
속성으로 지정됩니다. topK
속성이 비어 있으면 모델이 최상위 k 샘플링을 적용하지 않으며 요청에 topK
설정을 허용하지 않음을 나타냅니다.
JSON 표현 |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
평점의 카테고리입니다.
이러한 범주에는 개발자가 조정할 수 있는 다양한 종류의 피해가 포함됩니다.
열거형 | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
카테고리가 지정되지 않았습니다. |
HARM_CATEGORY_DEROGATORY |
ID 또는 보호 속성을 타겟팅하는 부정적이거나 유해한 댓글입니다. |
HARM_CATEGORY_TOXICITY |
무례하거나 모욕적이거나 욕설이 있는 콘텐츠 |
HARM_CATEGORY_VIOLENCE |
개인 또는 그룹에 대한 폭력을 묘사하는 시나리오 또는 유혈 콘텐츠에 대한 일반적인 설명을 묘사 |
HARM_CATEGORY_SEXUAL |
성행위 또는 기타 외설적인 콘텐츠에 대한 참조가 포함 |
HARM_CATEGORY_MEDICAL |
확인되지 않은 의학적 조언을 조장합니다. |
HARM_CATEGORY_DANGEROUS |
유해한 행위를 조장, 촉진 또는 조장하는 위험한 콘텐츠 |
HARM_CATEGORY_HARASSMENT |
괴롭힘 콘텐츠 |
HARM_CATEGORY_HATE_SPEECH |
증오심 표현 및 콘텐츠. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
음란물 |
HARM_CATEGORY_DANGEROUS_CONTENT |
위험한 콘텐츠 |
SafetyRating
콘텐츠의 안전 등급입니다.
안전 등급에는 콘텐츠에 대한 유해 카테고리 및 해당 카테고리의 피해 가능성 수준이 포함됩니다. 콘텐츠는 여러 유해 카테고리에서 안전을 위해 분류되며 여기에는 위험 분류의 가능성이 포함됩니다.
category
enum (HarmCategory
)
필수 항목입니다. 이 평점의 카테고리입니다.
probability
enum (HarmProbability
)
필수 항목입니다. 이 콘텐츠가 피해를 줄 가능성입니다.
blocked
boolean
이 등급으로 인해 콘텐츠가 차단되었나요?
JSON 표현 |
---|
{ "category": enum ( |
HarmProbability
특정 콘텐츠가 유해할 확률입니다.
분류 시스템은 콘텐츠가 안전하지 않을 확률을 제공합니다. 콘텐츠가 얼마나 심각한 피해를 주는지 나타내지는 않습니다.
열거형 | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
확률이 지정되지 않았습니다. |
NEGLIGIBLE |
콘텐츠가 안전하지 않을 가능성이 미미합니다. |
LOW |
콘텐츠가 안전하지 않을 가능성이 낮습니다. |
MEDIUM |
콘텐츠가 안전하지 않을 가능성이 중간입니다. |
HIGH |
콘텐츠가 안전하지 않을 가능성이 높습니다. |
SafetySetting
안전 설정으로, 안전 차단 동작에 영향을 미칩니다.
카테고리의 안전 설정을 전달하면 콘텐츠가 차단될 수 있는 허용 가능성이 변경됩니다.
category
enum (HarmCategory
)
필수 항목입니다. 이 설정의 카테고리입니다.
threshold
enum (HarmBlockThreshold
)
필수 항목입니다. 피해가 차단되는 확률 임곗값을 제어합니다.
JSON 표현 |
---|
{ "category": enum ( |
HarmBlockThreshold
지정된 해를 끼칠 확률을 넘어서서 차단합니다.
열거형 | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
기준이 지정되지 않았습니다. |
BLOCK_LOW_AND_ABOVE |
NEGLIGIBLE이(가) 포함된 콘텐츠는 허용됩니다. |
BLOCK_MEDIUM_AND_ABOVE |
NEGLIGIBLE 및 LOW인 콘텐츠는 허용됩니다. |
BLOCK_ONLY_HIGH |
NEGIBLE(NEGIBLE), LOW(낮음), MEDIUM(보통)인 콘텐츠는 허용됩니다. |
BLOCK_NONE |
모든 콘텐츠가 허용됩니다. |