Metoda: modele.generateText
Gjeneron një përgjigje nga modeli i dhënë një mesazh hyrës.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i Model
ose TunedModel
për t'u përdorur për gjenerimin e përfundimit. Shembuj: modele/text-bison-001 tunedModels/sentence-translator-u3b7m Ajo merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
prompt
object ( TextPrompt
)
E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.
Duke marrë një kërkesë, modeli do të gjenerojë një përgjigje TextCompletion që e parashikon si përfundimin e tekstit hyrës.
safetySettings[]
object ( SafetySetting
)
Fakultative. Një listë e rasteve unike SafetySetting
për bllokimin e përmbajtjes së pasigurt.
që do të zbatohet në GenerateTextRequest.prompt
dhe GenerateTextResponse.candidates
. Nuk duhet të ketë më shumë se një cilësim për çdo lloj SafetyCategory
. API do të bllokojë çdo kërkesë dhe përgjigje që nuk arrin të përmbushë kufijtë e vendosur nga këto cilësime. Kjo listë anashkalon cilësimet e paracaktuara për secilën SafetyCategory
të specifikuar në Cilësimet e sigurisë. Nëse nuk ka SafetySetting
për një SafetyCategory
të dhënë në listë, API do të përdorë cilësimin e paracaktuar të sigurisë për atë kategori. Kategoritë e dëmtimit HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS mbështeten në shërbimin e tekstit.
string
stopSequences[]
Grupi i sekuencave të karaktereve (deri në 5) që do të ndalojnë gjenerimin e prodhimit. Nëse specifikohet, API do të ndalojë në shfaqjen e parë të një sekuence ndalimi. Sekuenca e ndalimit nuk do të përfshihet si pjesë e përgjigjes.
number
temperature
Fakultative. Kontrollon rastësinë e daljes. Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.temperature
të Model
që ktheu funksionin getModel
.
Vlerat mund të variojnë nga [0.0,1.0], përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme dhe kreative, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më të drejtpërdrejta nga modeli.
candidateCount
integer
Fakultative. Numri i përgjigjeve të gjeneruara për t'u kthyer.
Kjo vlerë duhet të jetë ndërmjet [1, 8], përfshirëse. Nëse nuk është caktuar, kjo do të jetë 1 e paracaktuar.
maxOutputTokens
integer
Fakultative. Numri maksimal i argumenteve për t'u përfshirë në një kandidat.
Nëse nuk është caktuar, kjo do të jetë e paracaktuar në outputTokenLimit të specifikuar në specifikimin e Model
.
number
topP
Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Shenjat renditen në bazë të probabiliteteve të tyre të caktuara në mënyrë që të merren parasysh vetëm argumentet më të mundshëm. Mostra Top-k kufizon drejtpërdrejt numrin maksimal të argumenteve për t'u marrë në konsideratë, ndërsa kampionimi i bërthamës kufizon numrin e argumenteve bazuar në probabilitetin kumulativ.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_p
të Model
që ktheu funksionin getModel
.
topK
integer
Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Mostra Top-k merr në konsideratë grupin e tokenëve më të mundshëm topK
. Parazgjedhja në 40.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_k
të Model
që ktheu funksionin getModel
.
Trupi i reagimit
Nëse është i suksesshëm, trupi i përgjigjes përmban një shembull të GenerateTextResponse
.
Metoda: modele.countTextTokens
Ekzekuton tokenizuesin e një modeli në një tekst dhe kthen numërimin e shenjave.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.
Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list
.
Formati: models/{model}
Merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
prompt
object ( TextPrompt
)
E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.
Trupi i reagimit
Një përgjigje nga models.countTextTokens
.
Ai kthen tokenCount
të modelit për prompt
.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
tokenCount
integer
Numri i shenjave në të cilat model
shënon prompt
.
Gjithmonë jo negative.
Përfaqësimi JSON |
---|
{ "tokenCount": integer } |
Metoda: modele.gjenerojMessage
Gjeneron një përgjigje nga modeli i dhënë një MessagePrompt
hyrëse.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i modelit që do të përdoret.
Formati: name=models/{model}
. Ajo merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
prompt
object ( MessagePrompt
)
E detyrueshme. Inputi i strukturuar tekstual i dhënë modelit si një kërkesë.
Duke marrë një kërkesë, modeli do të kthejë atë që parashikon është mesazhi tjetër në diskutim.
number
temperature
Fakultative. Kontrollon rastësinë e daljes.
Vlerat mund të shkojnë mbi [0.0,1.0]
, përfshirëse. Një vlerë më afër 1.0
do të prodhojë përgjigje që janë më të ndryshme, ndërsa një vlerë më afër 0.0
zakonisht do të rezultojë në përgjigje më pak befasuese nga modeli.
candidateCount
integer
Fakultative. Numri i mesazheve përgjigje të gjeneruara për t'u kthyer.
Kjo vlerë duhet të jetë ndërmjet [1, 8]
përfshirëse. Nëse nuk është caktuar, kjo do të jetë e paracaktuar në 1
.
number
topP
Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Kampionimi i bërthamës merr në konsideratë grupin më të vogël të argumenteve, shuma e probabilitetit të të cilëve është të paktën topP
.
topK
integer
Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Mostra Top-k merr në konsideratë grupin e tokenave më të mundshëm topK
.
Trupi i reagimit
Përgjigja nga modelja.
Kjo përfshin mesazhet e kandidatëve dhe historinë e bisedave në formën e mesazheve të renditura kronologjikisht.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
candidates[]
object ( Message
)
Mesazhet e përgjigjes së kandidatit nga modeli.
messages[]
object ( Message
)
Historia e bisedave të përdorura nga modeli.
filters[]
object ( ContentFilter
)
Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.
Kjo tregon se cila Kategori(et) SafetyCategory
bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability
që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori.
Përfaqësimi JSON |
---|
{ "candidates": [ { object ( |
Metoda: modele.countMessageTokens
Ekzekuton tokenizuesin e një modeli në një varg dhe kthen numërimin e shenjave.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.
Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list
.
Formati: models/{model}
Merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
prompt
object ( MessagePrompt
)
E detyrueshme. Prompt, numri i shenjave të të cilit duhet të kthehet.
Trupi i reagimit
Një përgjigje nga models.countMessageTokens
.
Ai kthen tokenCount
të modelit për prompt
.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
tokenCount
integer
Numri i shenjave në të cilat model
shënon prompt
.
Gjithmonë jo negative.
Përfaqësimi JSON |
---|
{ "tokenCount": integer } |
Metoda: modele.embedText
Gjeneron një ngulitje nga modeli i dhënë një mesazh hyrës.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}. Ajo merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
string
text
Fakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.
Metoda: modele.batchEmbedText
- Pika përfundimtare
- Parametrat e rrugës
- Trupi i kërkesës
- Trupi i reagimit
- Fusha e autorizimit
- EmbedTextRequest
Gjeneron futje të shumta nga modeli i dhënë tekstit hyrës në një telefonatë sinkrone.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i Model
që do të përdoret për gjenerimin e ngulitjes. Shembuj: modele/embedding-gecko-001 Ajo merr formën models/{model}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
string
texts[]
Fakultative. Tekstet e hyrjes në formë të lirë që modeli do t'i shndërrojë në një ngulitje. Kufiri aktual është 100 tekste, mbi të cilat do të hidhet një gabim.
requests[]
object ( EmbedTextRequest
)
Fakultative. Vendosja e kërkesave për grupin. Mund të vendoset vetëm një nga texts
ose requests
.
Trupi i reagimit
Përgjigja ndaj një EmbedTextRequest.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
embeddings[]
object ( Embedding
)
Vetëm dalje. Përfshirjet e krijuara nga teksti hyrës.
Përfaqësimi JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Kërkoni të merrni një ngulitje teksti nga modeli.
string
model
E detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}.
string
text
Fakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.
Përfaqësimi JSON |
---|
{ "model": string, "text": string } |
Metoda: tunedModels.generateText
Gjeneron një përgjigje nga modeli i dhënë një mesazh hyrës.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
URL-ja përdor sintaksën e transkodimit të gRPC .
Parametrat e rrugës
string
model
E detyrueshme. Emri i Model
ose TunedModel
për t'u përdorur për gjenerimin e përfundimit. Shembuj: modele/text-bison-001 tunedModels/sentence-translator-u3b7m Merr formën tunedModels/{tunedmodel}
.
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
prompt
object ( TextPrompt
)
E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.
Duke marrë një kërkesë, modeli do të gjenerojë një përgjigje TextCompletion që e parashikon si përfundimin e tekstit hyrës.
safetySettings[]
object ( SafetySetting
)
Fakultative. Një listë e rasteve unike SafetySetting
për bllokimin e përmbajtjes së pasigurt.
që do të zbatohet në GenerateTextRequest.prompt
dhe GenerateTextResponse.candidates
. Nuk duhet të ketë më shumë se një cilësim për çdo lloj SafetyCategory
. API do të bllokojë çdo kërkesë dhe përgjigje që nuk arrin të përmbushë kufijtë e vendosur nga këto cilësime. Kjo listë anashkalon cilësimet e paracaktuara për secilën SafetyCategory
të specifikuar në Cilësimet e sigurisë. Nëse nuk ka SafetySetting
për një SafetyCategory
të dhënë në listë, API do të përdorë cilësimin e paracaktuar të sigurisë për atë kategori. Kategoritë e dëmtimit HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS mbështeten në shërbimin e tekstit.
string
stopSequences[]
Grupi i sekuencave të karaktereve (deri në 5) që do të ndalojnë gjenerimin e prodhimit. Nëse specifikohet, API do të ndalojë në shfaqjen e parë të një sekuence ndalimi. Sekuenca e ndalimit nuk do të përfshihet si pjesë e përgjigjes.
number
temperature
Fakultative. Kontrollon rastësinë e daljes. Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.temperature
të Model
që ktheu funksionin getModel
.
Vlerat mund të variojnë nga [0.0,1.0], përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme dhe kreative, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më të drejtpërdrejta nga modeli.
candidateCount
integer
Fakultative. Numri i përgjigjeve të gjeneruara për t'u kthyer.
Kjo vlerë duhet të jetë ndërmjet [1, 8], përfshirëse. Nëse nuk është caktuar, kjo do të jetë 1 e paracaktuar.
maxOutputTokens
integer
Fakultative. Numri maksimal i argumenteve për t'u përfshirë në një kandidat.
Nëse nuk është caktuar, kjo do të jetë e paracaktuar në outputTokenLimit të specifikuar në specifikimin e Model
.
number
topP
Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Shenjat renditen në bazë të probabiliteteve të tyre të caktuara në mënyrë që të merren parasysh vetëm argumentet më të mundshëm. Mostra Top-k kufizon drejtpërdrejt numrin maksimal të argumenteve për t'u marrë në konsideratë, ndërsa kampionimi i bërthamës kufizon numrin e argumenteve bazuar në probabilitetin kumulativ.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_p
të Model
që ktheu funksionin getModel
.
topK
integer
Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Mostra Top-k merr në konsideratë grupin e tokenëve më të mundshëm topK
. Parazgjedhjet në 40.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_k
të Model
që ktheu funksionin getModel
.
Trupi i reagimit
Nëse është i suksesshëm, trupi i përgjigjes përmban një shembull të GenerateTextResponse
.
Filtri i përmbajtjes
Të dhënat meta të filtrimit të përmbajtjes që lidhen me përpunimin e një kërkese të vetme.
ContentFilter përmban një arsye dhe një varg mbështetës opsional. Arsyeja mund të jetë e paspecifikuar.
reason
enum ( BlockedReason
)
Arsyeja pse përmbajtja u bllokua gjatë përpunimit të kërkesës.
string
message
Një varg që përshkruan sjelljen e filtrimit në më shumë detaje.
Përfaqësimi JSON |
---|
{
"reason": enum ( |
Arsyeja e bllokuar
Një listë e arsyeve pse përmbajtja mund të jetë bllokuar.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED | Arsyeja e bllokimit nuk u specifikua. |
SAFETY | Përmbajtja u bllokua nga cilësimet e sigurisë. |
OTHER | Përmbajtja u bllokua, por arsyeja është e pakategorizuar. |
Embedding
Një listë e notave që përfaqësojnë përfshirjen.
value[]
number
Vlerat e ngulitjes.
Përfaqësimi JSON |
---|
{ "value": [ number ] } |
Mesazh
Njësia bazë e tekstit të strukturuar.
Një Message
përfshin një author
dhe content
e Message
.
author
përdoret për të etiketuar mesazhet kur ato i jepen modelit si tekst.
string
content
E detyrueshme. Përmbajtja e tekstit të Message
të strukturuar.
citationMetadata
object ( CitationMetadata
)
Vetëm dalje. Informacioni i citimit për content
e krijuar nga modeli në këtë Message
.
Nëse ky Message
është krijuar si rezultat nga modeli, kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në content
. Kjo fushë përdoret vetëm në dalje.
Përfaqësimi JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
Message Prompt
I gjithë teksti hyrës i strukturuar i kaloi modelit si një kërkesë.
Një MessagePrompt
përmban një grup të strukturuar fushash që ofrojnë kontekst për bisedën, shembuj të çifteve të mesazheve hyrëse/model dalëse të përdoruesit që e paraqesin modelin për t'u përgjigjur në mënyra të ndryshme dhe historikun e bisedës ose listën e mesazheve që përfaqësojnë kthesat e alternuara të bisedës ndërmjet përdoruesi dhe modeli.
string
context
Fakultative. Teksti që duhet t'i jepet modelit fillimisht për të bazuar përgjigjen.
Nëse nuk është bosh, ky context
do t'i jepet modelit së pari përpara examples
dhe messages
. Kur përdorni një context
sigurohuni që t'i jepni atij çdo kërkesë për të ruajtur vazhdimësinë.
Kjo fushë mund të jetë një përshkrim i kërkesës suaj për modelin për të ndihmuar në dhënien e kontekstit dhe udhëheqjen e përgjigjeve. Shembuj: "Përkthe frazën nga anglishtja në frëngjisht." ose "Duke pasur një deklaratë, klasifikojeni ndjenjën si të lumtur, të trishtuar ose neutrale."
Çdo gjë e përfshirë në këtë fushë do të ketë përparësi ndaj historisë së mesazheve nëse madhësia totale e hyrjes tejkalon inputTokenLimit
të modelit dhe kërkesa e hyrjes shkurtohet.
examples[]
object ( Example
)
Fakultative. Shembuj të asaj që modeli duhet të gjenerojë.
Kjo përfshin hyrjen e përdoruesit dhe përgjigjen që modeli duhet të imitojë.
Këta examples
trajtohen në mënyrë identike me mesazhet e bisedës, përveç se ato kanë përparësi ndaj historisë në messages
: Nëse madhësia totale e hyrjes tejkalon inputTokenLimit
të modelit, hyrja do të shkurtohet. Artikujt do të hiqen nga messages
përpara examples
.
messages[]
object ( Message
)
E detyrueshme. Një fotografi e historisë së bisedave të fundit e renditur në mënyrë kronologjike.
Kthesat alternohen midis dy autorëve.
Nëse madhësia totale e hyrjes tejkalon inputTokenLimit
të modelit, hyrja do të shkurtohet: Artikujt më të vjetër do të hiqen nga messages
.
Shembull
Një shembull hyrës/dalës i përdorur për të udhëzuar Modelin.
Ai tregon se si modeli duhet të përgjigjet ose të formatojë përgjigjen e tij.
input
object ( Message
)
E detyrueshme. Një shembull i një Message
hyrës nga përdoruesi.
output
object ( Message
)
E detyrueshme. Një shembull i asaj se çfarë duhet të nxjerrë modeli duke pasur parasysh hyrjen.
GenerateTextResponse
Përgjigja nga modeli, duke përfshirë plotësimet e kandidatëve.
candidates[]
object ( TextCompletion
)
Përgjigjet e kandidatëve nga modeli.
filters[]
object ( ContentFilter
)
Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.
Kjo tregon se cila Kategori(et) SafetyCategory
bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability
që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori. Kjo tregon ndryshimin më të vogël në SafetySettings
që do të ishte i nevojshëm për të zhbllokuar të paktën 1 përgjigje.
Bllokimi konfigurohet nga SafetySettings
në kërkesë (ose SafetySettings
të paracaktuar të API).
safetyFeedback[]
object ( SafetyFeedback
)
Kthen çdo koment për sigurinë në lidhje me filtrimin e përmbajtjes.
Përfaqësimi JSON |
---|
{ "candidates": [ { object ( |
Plotësimi i tekstit
Teksti dalës i kthyer nga një model.
output
string
Vetëm dalje. Teksti i krijuar u kthye nga modeli.
safetyRatings[]
object ( SafetyRating
)
Vlerësimet për sigurinë e një përgjigjeje.
Ka më së shumti një vlerësim për kategori.
citationMetadata
object ( CitationMetadata
)
Vetëm dalje. Informacioni i citimit për output
e krijuar nga modeli në këtë TextCompletion
.
Kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në output
.
Përfaqësimi JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
Siguria Feedback
Komentet e sigurisë për një kërkesë të tërë.
Kjo fushë plotësohet nëse përmbajtja në hyrje dhe/ose përgjigje është e bllokuar për shkak të cilësimeve të sigurisë. SafetyFeedback mund të mos ekzistojë për çdo kategori Harm. Çdo SafetyFeedback do të kthejë cilësimet e sigurisë të përdorura nga kërkesa, si dhe probabilitetin më të ulët të dëmtimit që duhet të lejohet për të kthyer një rezultat.
object ( SafetyRating )
rating
Vlerësimi i sigurisë i vlerësuar nga përmbajtja.
setting
object ( SafetySetting
)
Cilësimet e sigurisë aplikohen në kërkesë.
Përfaqësimi JSON |
---|
{ "rating": { object ( |