Interfejs Gemini API obsługuje m.in. generowanie treści przy użyciu obrazów, dźwięków, kodu i narzędzi. Aby uzyskać szczegółowe informacje o każdej z tych funkcji, przeczytaj przykładowy kod dotyczący konkretnego zadania lub przeczytaj kompleksowe przewodniki.
- Generowanie tekstu
- Wizja
- Dźwięk
- Długi kontekst
- Wykonanie kodu
- Tryb JSON
- Wywoływanie funkcji
- Instrukcje systemowe
Metoda: Modele.generateContent
Generuje odpowiedź modelu na podstawie danych wejściowych GenerateContentRequest
. Szczegółowe informacje o używaniu tej funkcji znajdziesz w przewodniku po generowaniu tekstu. Możliwości wprowadzania różnią się w zależności od modelu, w tym na modelach dostrojonych. Szczegółowe informacje można znaleźć w przewodniku po modelu i w przewodniku dostrajania.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContent
Parametry ścieżki
model
string
Wymagane. Nazwa obiektu Model
, która ma być używana do generowania uzupełniania.
Format: name=models/{model}
. Przyjmuje on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
contents[]
object (Content
)
Wymagane. Treść bieżącej rozmowy z modelem.
W przypadku zapytań jednoetapowych jest to pojedyncza instancja. W przypadku zapytań wieloetapowych, takich jak czat, jest to pole powtarzane, które zawiera historię rozmowy i ostatnie żądanie.
tools[]
object (Tool
)
Opcjonalnie: Lista właściwości Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi wchodzenie w interakcję z zewnętrznymi systemami w celu wykonania działania lub zestawu działań poza zakresem wiedzy i zakresu Model
. Obsługiwane elementy typu Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodnikach dotyczących wywoływania funkcji i wykonania kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnych Tool
określonych w żądaniu. Przykład użycia znajdziesz w przewodniku dotyczącym wywoływania funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
Ta zmiana zostanie zastosowana w GenerateContentRequest.contents
i GenerateContentResponse.candidates
. Każdy typ SafetyCategory
powinien mieć maksymalnie 1 ustawienie. Interfejs API zablokuje treści i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT są obsługiwane. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacjach AI, zapoznaj się ze wskazówkami dotyczącymi bezpieczeństwa.
systemInstruction
object (Content
)
Opcjonalnie: Programista skonfigurował instrukcje systemowe. Obecnie tylko tekstowe.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modeli i ich danych wyjściowych.
cachedContent
string
Opcjonalnie: Nazwa treści zapisana w pamięci podręcznej, która może służyć jako kontekst do wyświetlania podpowiedzi. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Obraz
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Dźwięk
Python
Node.js
Pudrowy róż
Wideo
Python
Node.js
Przeczytaj
Pudrowy róż
Python
Pudrowy róż
Czat
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Cache (Pamięć podręczna)
Python
Node.js
Dostrojony model
Python
Tryb JSON
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Wykonanie kodu
Python
Kotlin
Java
Wywołanie funkcji
Python
Node.js
Pudrowy róż
Kotlin
Swift
Dart
Java
Konfiguracja generowania
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Ustawienia bezpieczeństwa
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Instrukcja systemowa
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateContentResponse
.
Metoda: Modele.streamGenerateContent
Generuje strumieniową odpowiedź na podstawie modelu z danymi wejściowymi GenerateContentRequest
.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContent
Parametry ścieżki
model
string
Wymagane. Nazwa obiektu Model
, która ma być używana do generowania uzupełniania.
Format: name=models/{model}
. Przyjmuje on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
contents[]
object (Content
)
Wymagane. Treść bieżącej rozmowy z modelem.
W przypadku zapytań jednoetapowych jest to pojedyncza instancja. W przypadku zapytań wieloetapowych, takich jak czat, jest to pole powtarzane, które zawiera historię rozmowy i ostatnie żądanie.
tools[]
object (Tool
)
Opcjonalnie: Lista właściwości Tools
, których Model
może użyć do wygenerowania następnej odpowiedzi.
Tool
to fragment kodu, który umożliwia systemowi wchodzenie w interakcję z zewnętrznymi systemami w celu wykonania działania lub zestawu działań poza zakresem wiedzy i zakresu Model
. Obsługiwane elementy typu Tool
to Function
i codeExecution
. Więcej informacji znajdziesz w przewodnikach dotyczących wywoływania funkcji i wykonania kodu.
toolConfig
object (ToolConfig
)
Opcjonalnie: Konfiguracja narzędzia dla dowolnych Tool
określonych w żądaniu. Przykład użycia znajdziesz w przewodniku dotyczącym wywoływania funkcji.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
Ta zmiana zostanie zastosowana w GenerateContentRequest.contents
i GenerateContentResponse.candidates
. Każdy typ SafetyCategory
powinien mieć maksymalnie 1 ustawienie. Interfejs API zablokuje treści i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT są obsługiwane. Szczegółowe informacje o dostępnych ustawieniach bezpieczeństwa znajdziesz w przewodniku. Aby dowiedzieć się, jak uwzględniać kwestie bezpieczeństwa w aplikacjach AI, zapoznaj się ze wskazówkami dotyczącymi bezpieczeństwa.
systemInstruction
object (Content
)
Opcjonalnie: Programista skonfigurował instrukcje systemowe. Obecnie tylko tekstowe.
generationConfig
object (GenerationConfig
)
Opcjonalnie: Opcje konfiguracji generowania modeli i ich danych wyjściowych.
cachedContent
string
Opcjonalnie: Nazwa treści zapisana w pamięci podręcznej, która może służyć jako kontekst do wyświetlania podpowiedzi. Format: cachedContents/{cachedContent}
Przykładowe żądanie
Tekst
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Obraz
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Dźwięk
Python
Pudrowy róż
Wideo
Python
Node.js
Przeczytaj
Pudrowy róż
Python
Pudrowy róż
Czat
Python
Node.js
Przeczytaj
Pudrowy róż
Kotlin
Swift
Dart
Java
Treść odpowiedzi
Jeśli operacja się uda, treść odpowiedzi będzie zawierała strumień instancji GenerateContentResponse
.
GenerateContentResponse
Odpowiedź z modelu obsługująca wiele odpowiedzi kandydatów.
Oceny bezpieczeństwa i filtrowanie treści są raportowane zarówno w przypadku promptów w języku GenerateContentResponse.prompt_feedback
, jak i w przypadku każdego kandydata w polu finishReason
i w safetyRatings
. Interfejs API: - Zwraca wszystkie żądane propozycje lub nie zwraca żadnego z nich - Zwraca brak propozycji tylko wtedy, gdy coś jest nie tak z promptem (zaznacz promptFeedback
) - Zwraca opinię na temat każdego kandydata w finishReason
i safetyRatings
.
candidates[]
object (Candidate
)
Odpowiedzi kandydata z modelu.
promptFeedback
object (PromptFeedback
)
Zwraca opinię promptu związaną z filtrami treści.
usageMetadata
object (UsageMetadata
)
Tylko dane wyjściowe. Metadane dotyczące żądań generowania wykorzystanie tokenów.
Zapis JSON |
---|
{ "candidates": [ { object ( |
PromptFeedback
Zbiór metadanych opinii podanych w prompcie GenerateContentRequest.content
.
blockReason
enum (BlockReason
)
Opcjonalnie: Jeśli prompt został ustawiony, został zablokowany i nie zostały zwrócone żadne kandydaci. Przeredaguj prompt.
safetyRatings[]
object (SafetyRating
)
Oceny pod kątem bezpieczeństwa promptu. Każda kategoria może mieć maksymalnie 1 ocenę.
Zapis JSON |
---|
{ "blockReason": enum ( |
BlockReason
Określa powód, dla którego prompt został zablokowany.
Wartości w polu enum | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Wartość domyślna. Ta wartość nie jest używana. |
SAFETY |
Prompt został zablokowany ze względów bezpieczeństwa. Sprawdź zasadę safetyRatings , aby dowiedzieć się, która kategoria bezpieczeństwa ją zablokowała. |
OTHER |
Prompt został zablokowany z nieznanych powodów. |
BLOCKLIST |
Prompt został zablokowany z powodu haseł znajdujących się na liście zablokowanych terminologii. |
PROHIBITED_CONTENT |
Prompt został zablokowany z powodu zabronionych treści. |
UsageMetadata
Metadane dotyczące wykorzystania tokena żądania wygenerowania.
promptTokenCount
integer
Liczba tokenów w prompcie. Jeśli parametr cachedContent
jest ustawiony, nadal jest to łączny efektywny rozmiar promptu, co oznacza, że obejmuje on liczbę tokenów w treści w pamięci podręcznej.
cachedContentTokenCount
integer
Liczba tokenów w części prompta w pamięci podręcznej (treść w pamięci podręcznej)
candidatesTokenCount
integer
Łączna liczba tokenów wśród wszystkich wygenerowanych kandydatów odpowiedzi.
totalTokenCount
integer
Łączna liczba tokenów w żądaniu wygenerowania (prompt + kandydaci odpowiedzi).
Zapis JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Kandydat
- Zapis JSON
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
Kandydat do odpowiedzi wygenerowany na podstawie modelu.
content
object (Content
)
Tylko dane wyjściowe. Wygenerowane treści zwrócone z modelu.
finishReason
enum (FinishReason
)
Opcjonalnie: Tylko dane wyjściowe. Powód, dla którego model przestał generować tokeny.
Jeśli pole jest puste, model nie przestał generować tokenów.
safetyRatings[]
object (SafetyRating
)
Lista ocen bezpieczeństwa kandydata na odpowiedź.
Każda kategoria może mieć maksymalnie 1 ocenę.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu kandydata wygenerowanego przez model.
To pole może zawierać informacje na temat recytacji dowolnego tekstu zawartego w content
. To fragmenty, które zostały „zacytowane” z materiałów chronionych prawem autorskim w danych treningowych podstawowego LLM.
tokenCount
integer
Tylko dane wyjściowe. Liczba tokenów tego kandydata.
groundingAttributions[]
object (GroundingAttribution
)
Tylko dane wyjściowe. Informacje o atrybucji źródeł, które przyczyniły się do udowodnionej odpowiedzi.
To pole jest wypełniane w przypadku wywołań typu GenerateAnswer
.
index
integer
Tylko dane wyjściowe. Indeks kandydata na liście kandydatów do odpowiedzi.
Zapis JSON |
---|
{ "content": { object ( |
FinishReason
Określa przyczynę, dla której model przestał generować tokeny.
Wartości w polu enum | |
---|---|
FINISH_REASON_UNSPECIFIED |
Wartość domyślna. Ta wartość nie jest używana. |
STOP |
Naturalny punkt zatrzymania modelu lub podana sekwencja zatrzymania. |
MAX_TOKENS |
Osiągnięto maksymalną liczbę tokenów podaną w żądaniu. |
SAFETY |
Treść kandydująca do odpowiedzi została oznaczona ze względów bezpieczeństwa. |
RECITATION |
Treść kandydujących odpowiedzi została oznaczona jako recytacja. |
LANGUAGE |
Treść kandydująca do odpowiedzi została oznaczona, ponieważ używa nieobsługiwanego języka. |
OTHER |
Przyczyna nieznana. |
BLOCKLIST |
Generowanie tokena zostało zatrzymane, ponieważ treść zawiera zabronione hasła. |
PROHIBITED_CONTENT |
Zatrzymano generowanie tokena, ponieważ mogło zawierać niedozwolone treści. |
SPII |
Generowanie tokenów zostało zatrzymane, ponieważ treść może zawierać poufne informacje umożliwiające identyfikację. |
MALFORMED_FUNCTION_CALL |
Wywołanie funkcji wygenerowane przez model jest nieprawidłowe. |
GroundingAttribution
Atrybucja źródła, które ma udział w udzieleniu odpowiedzi.
sourceId
object (AttributionSourceId
)
Tylko dane wyjściowe. Identyfikator źródła wpływającego na tę atrybucję.
content
object (Content
)
Uporządkowanie treści źródłowych, z których składa się ta atrybucja.
Zapis JSON |
---|
{ "sourceId": { object ( |
AttributionSourceId
Identyfikator źródła wpływającego na tę atrybucję.
Pole sumy source
.
source
może mieć tylko jedną z tych wartości:
groundingPassage
object (GroundingPassageId
)
Identyfikator tekstu wbudowanego.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Identyfikator elementu Chunk
pobranego przez moduł odbioru semantycznego.
Zapis JSON |
---|
{ // Union field |
GroundingPassageId
Identyfikator części w elemencie GroundingPassage
.
passageId
string
Tylko dane wyjściowe. Identyfikator fragmentu pasującego do: GroundingPassage.id
w pliku GenerateAnswerRequest
.
partIndex
integer
Tylko dane wyjściowe. Indeks części w GroundingPassage.content
elementu GenerateAnswerRequest
.
Zapis JSON |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Identyfikator elementu Chunk
pobranego za pomocą modułu odbioru semantycznego określonego w GenerateAnswerRequest
przy użyciu SemanticRetrieverConfig
.
source
string
Tylko dane wyjściowe. Nazwa źródła pasującego do identyfikatora SemanticRetrieverConfig.source
żądania. Przykład: corpora/123
lub corpora/123/documents/abc
chunk
string
Tylko dane wyjściowe. Nazwa elementu Chunk
zawierającego przypisany tekst. Przykład: corpora/123/documents/abc/chunks/xyz
Zapis JSON |
---|
{ "source": string, "chunk": string } |
CitationMetadata
Zbiór informacji o źródłach dodawanych do danego fragmentu treści.
citationSources[]
object (CitationSource
)
cytaty z informacjami o źródłach, z których pochodzą konkretne odpowiedzi.
Zapis JSON |
---|
{
"citationSources": [
{
object ( |
CitationSource
Cytowanie źródła dotyczącego fragmentu konkretnej odpowiedzi.
startIndex
integer
Opcjonalnie: Początek segmentu odpowiedzi przypisanej do tego źródła.
Indeks wskazuje początek segmentu (mierzony w bajtach).
endIndex
integer
Opcjonalnie: Koniec przypisanego segmentu, bez wyjątków.
uri
string
Opcjonalnie: Identyfikator URI przypisany jako źródło fragmentu tekstu.
license
string
Opcjonalnie: Licencja na projekt GitHub, która jest przypisana jako źródło segmentu.
Do cytowania kodu wymagane są informacje o licencji.
Zapis JSON |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
Opcje konfiguracji generowania modeli i ich danych wyjściowych. Nie wszystkie parametry można skonfigurować w przypadku każdego modelu.
stopSequences[]
string
Opcjonalnie: Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się parametru stop_sequence
. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.
responseMimeType
string
Opcjonalnie: Typ MIME wygenerowanego tekstu kandydata. Obsługiwane typy MIME: text/plain
: (domyślnie) Tekst wyjściowy. application/json
: odpowiedź JSON w kandydatach do odpowiedzi. Listę wszystkich obsługiwanych typów MIME tekstu znajdziesz w dokumentacji.
responseSchema
object (Schema
)
Opcjonalnie: Schemat wyjściowy wygenerowanego tekstu kandydata. Schematy muszą być podzbiorem schematu OpenAPI i mogą być obiektami, elementami podstawowymi lub tablicami.
Jeśli jest ustawione, musi być też ustawione zgodne ustawienie responseMimeType
. Zgodne typy MIME: application/json
: schemat odpowiedzi JSON. Więcej informacji znajdziesz w przewodniku po generowaniu tekstu JSON.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.
Obecnie ta wartość może być ustawiona tylko na 1. Jeśli nie są ustawione, domyślna wartość to 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie do odpowiedzi.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.output_token_limit
elementu Model
zwracanego przez funkcję getModel
.
temperature
number
Opcjonalnie: Określa losowość wyników.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
elementu Model
zwracanego przez funkcję getModel
.
Wartości muszą mieścić się w zakresie od [0,0, 2,0].
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i Top-P (nucleusa).
Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, a próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od parametru Model
i jest określana przez atrybut Model.top_p
zwrócony przez funkcję getModel
. Pusty atrybut topK
wskazuje, że model nie stosuje próbkowania górnego K i nie zezwala na ustawienie topK
w żądaniach.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Modele Gemini korzystają z próbkowania Top-P (nucleusa) lub kombinacji próbkowania Top-K i nucleusa. Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Modele korzystające z próbkowania jądra nie zezwalają na ustawienie topK.
Uwaga: wartość domyślna różni się w zależności od parametru Model
i jest określana przez atrybut Model.top_p
zwrócony przez funkcję getModel
. Pusty atrybut topK
wskazuje, że model nie stosuje próbkowania górnego K i nie zezwala na ustawienie topK
w żądaniach.
Zapis JSON |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
Kategoria oceny.
Te kategorie obejmują różne rodzaje szkód, które deweloperzy mogą chcieć dostosować.
Wartości w polu enum | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Kategoria nie jest określona. |
HARM_CATEGORY_DEROGATORY |
Negatywne lub szkodliwe komentarze dotyczące tożsamości lub atrybutu chronionego. |
HARM_CATEGORY_TOXICITY |
Treści nieuprzejme, obraźliwe lub wulgarne. |
HARM_CATEGORY_VIOLENCE |
Omówienie scenariuszy przedstawiających przemoc wobec osób lub grup albo ogólnych opisów okrucieństwa. |
HARM_CATEGORY_SEXUAL |
Treści zawierające odniesienia do aktów seksualnych lub innych lubieżnych treści. |
HARM_CATEGORY_MEDICAL |
Promuje niesprawdzone porady medyczne. |
HARM_CATEGORY_DANGEROUS |
Treści niebezpieczne, które promują, wspierają lub ułatwiają podejmowanie szkodliwych działań. |
HARM_CATEGORY_HARASSMENT |
Treści związane z nękaniem. |
HARM_CATEGORY_HATE_SPEECH |
Szerzenie nienawiści i treści szerzące nienawiść. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Treści o charakterze jednoznacznie seksualnym. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Treści niebezpieczne. |
SafetyRating
Ocena bezpieczeństwa danego elementu treści.
Ocena bezpieczeństwa zawiera kategorię wyrządzenia szkody i poziom prawdopodobieństwa szkody w tej kategorii w przypadku danego fragmentu treści. Treści są klasyfikowane pod kątem bezpieczeństwa według wielu kategorii szkód, a prawdopodobieństwo sklasyfikowania ich jako szkód jest tutaj uwzględnione.
category
enum (HarmCategory
)
Wymagane. Kategoria dla tej oceny.
probability
enum (HarmProbability
)
Wymagane. Prawdopodobieństwo wyrządzenia szkody w przypadku tych treści.
blocked
boolean
Czy te treści zostały zablokowane z powodu tej oceny?
Zapis JSON |
---|
{ "category": enum ( |
HarmProbability
Prawdopodobieństwo, że treść jest szkodliwa.
System klasyfikacji określa prawdopodobieństwo, że treści są niebezpieczne. Nie wskazuje to powagi wyrządzenia krzywdy danego materiału.
Wartości w polu enum | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
Prawdopodobieństwo nie jest określone. |
NEGLIGIBLE |
Istnieje duże prawdopodobieństwo, że treści będą niebezpieczne. |
LOW |
Istnieje niewielkie prawdopodobieństwo, że treści będą niebezpieczne. |
MEDIUM |
Istnieje średnie prawdopodobieństwo, że treści są niebezpieczne. |
HIGH |
Istnieje duże prawdopodobieństwo, że treści są niebezpieczne. |
SafetySetting
Ustawienie bezpieczeństwa, które wpływa na działanie funkcji blokowania.
Przekazanie ustawienia bezpieczeństwa danej kategorii zmienia dozwolone prawdopodobieństwo zablokowania treści.
category
enum (HarmCategory
)
Wymagane. Kategoria tego ustawienia.
threshold
enum (HarmBlockThreshold
)
Wymagane. Określa wartość progową prawdopodobieństwa, przy której szkoda jest blokowana.
Zapis JSON |
---|
{ "category": enum ( |
HarmBlockThreshold
Blokuj na poziomie określonego prawdopodobieństwa szkody i poza nią.
Wartości w polu enum | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
Próg nie jest określony. |
BLOCK_LOW_AND_ABOVE |
Treści z oznaczeniem NIEZBĘDNE będą dozwolone. |
BLOCK_MEDIUM_AND_ABOVE |
Treści z oznaczeniem NIEZBĘDNE i NISKI będą dozwolone. |
BLOCK_ONLY_HIGH |
Treści o wartościach NIEZBĘDNE, NISKI i ŚREDNI, będą dozwolone. |
BLOCK_NONE |
Wszystkie treści będą dozwolone. |