PaLM (decommissioned)

Metoda: modele.generateText

Gjeneron një përgjigje nga modeli i dhënë një mesazh hyrës.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i Model ose TunedModel për t'u përdorur për gjenerimin e përfundimit. Shembuj: modele/text-bison-001 tunedModels/sentence-translator-u3b7m Ajo merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
objekti prompt object ( TextPrompt )

E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.

Duke marrë një kërkesë, modeli do të gjenerojë një përgjigje TextCompletion që e parashikon si përfundimin e tekstit hyrës.

objekti safetySettings[] object ( SafetySetting )

Fakultative. Një listë e rasteve unike SafetySetting për bllokimin e përmbajtjes së pasigurt.

që do të zbatohet në GenerateTextRequest.prompt dhe GenerateTextResponse.candidates . Nuk duhet të ketë më shumë se një cilësim për çdo lloj SafetyCategory . API do të bllokojë çdo kërkesë dhe përgjigje që nuk arrin të përmbushë kufijtë e vendosur nga këto cilësime. Kjo listë anashkalon cilësimet e paracaktuara për secilën SafetyCategory të specifikuar në Cilësimet e sigurisë. Nëse nuk ka SafetySetting për një SafetyCategory të dhënë në listë, API do të përdorë cilësimin e paracaktuar të sigurisë për atë kategori. Kategoritë e dëmtimit HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS mbështeten në shërbimin e tekstit.

string stopSequences[]

Grupi i sekuencave të karaktereve (deri në 5) që do të ndalojnë gjenerimin e prodhimit. Nëse specifikohet, API do të ndalojë në shfaqjen e parë të një sekuence ndalimi. Sekuenca e ndalimit nuk do të përfshihet si pjesë e përgjigjes.

number temperature

Fakultative. Kontrollon rastësinë e daljes. Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.temperatureModel që ktheu funksionin getModel .

Vlerat mund të variojnë nga [0.0,1.0], përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme dhe kreative, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më të drejtpërdrejta nga modeli.

candidateCount integer

Fakultative. Numri i përgjigjeve të gjeneruara për t'u kthyer.

Kjo vlerë duhet të jetë ndërmjet [1, 8], përfshirëse. Nëse nuk është caktuar, kjo do të jetë 1 e paracaktuar.

maxOutputTokens integer

Fakultative. Numri maksimal i argumenteve për t'u përfshirë në një kandidat.

Nëse nuk është caktuar, kjo do të jetë e paracaktuar në outputTokenLimit të specifikuar në specifikimin e Model .

number topP

Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Shenjat renditen në bazë të probabiliteteve të tyre të caktuara në mënyrë që të merren parasysh vetëm argumentet më të mundshëm. Mostra Top-k kufizon drejtpërdrejt numrin maksimal të argumenteve për t'u marrë në konsideratë, ndërsa kampionimi i bërthamës kufizon numrin e argumenteve bazuar në probabilitetin kumulativ.

Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_pModel që ktheu funksionin getModel .

topK integer

Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Mostra Top-k merr në konsideratë grupin e tokenëve më të mundshëm topK . Parazgjedhja në 40.

Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_kModel që ktheu funksionin getModel .

Trupi i reagimit

Nëse është i suksesshëm, trupi i përgjigjes përmban një shembull të GenerateTextResponse .

Metoda: modele.countTextTokens

Ekzekuton tokenizuesin e një modeli në një tekst dhe kthen numërimin e shenjave.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.

Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list .

Formati: models/{model} Merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
objekti prompt object ( TextPrompt )

E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.

Trupi i reagimit

Një përgjigje nga models.countTextTokens .

Ai kthen tokenCount të modelit për prompt .

Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:

Fushat
tokenCount integer

Numri i shenjave në të cilat model shënon prompt .

Gjithmonë jo negative.

Përfaqësimi JSON
{
  "tokenCount": integer
}

Metoda: modele.gjenerojMessage

Gjeneron një përgjigje nga modeli i dhënë një MessagePrompt hyrëse.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i modelit që do të përdoret.

Formati: name=models/{model} . Ajo merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
objekti prompt object ( MessagePrompt )

E detyrueshme. Inputi i strukturuar tekstual i dhënë modelit si një kërkesë.

Duke marrë një kërkesë, modeli do të kthejë atë që parashikon është mesazhi tjetër në diskutim.

number temperature

Fakultative. Kontrollon rastësinë e daljes.

Vlerat mund të shkojnë mbi [0.0,1.0] , përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më pak befasuese nga modeli.

candidateCount integer

Fakultative. Numri i mesazheve përgjigje të gjeneruara për t'u kthyer.

Kjo vlerë duhet të jetë ndërmjet [1, 8] përfshirëse. Nëse nuk është caktuar, kjo do të jetë e paracaktuar në 1 .

number topP

Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Kampionimi i bërthamës merr në konsideratë grupin më të vogël të argumenteve, shuma e probabilitetit të të cilëve është të paktën topP .

topK integer

Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Mostra Top-k merr në konsideratë grupin e tokenave më të mundshëm topK .

Trupi i reagimit

Përgjigja nga modelja.

Kjo përfshin mesazhet e kandidatëve dhe historinë e bisedave në formën e mesazheve të renditura kronologjikisht.

Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:

Fushat
candidates[] object ( Message )

Mesazhet e përgjigjes së kandidatit nga modeli.

messages[] object ( Message )

Historia e bisedave të përdorura nga modeli.

filters[] object ( ContentFilter )

Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.

Kjo tregon se cila Kategori(et) SafetyCategory bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori.

Përfaqësimi JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metoda: modele.countMessageTokens

Ekzekuton tokenizuesin e një modeli në një varg dhe kthen numërimin e shenjave.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.

Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list .

Formati: models/{model} Merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
objekti prompt object ( MessagePrompt )

E detyrueshme. Prompt, numri i shenjave të të cilit duhet të kthehet.

Trupi i reagimit

Një përgjigje nga models.countMessageTokens .

Ai kthen tokenCount të modelit për prompt .

Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:

Fushat
tokenCount integer

Numri i shenjave në të cilat model shënon prompt .

Gjithmonë jo negative.

Përfaqësimi JSON
{
  "tokenCount": integer
}

Metoda: modele.embedText

Gjeneron një ngulitje nga modeli i dhënë një mesazh hyrës.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}. Ajo merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
string text

Fakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.

Trupi i reagimit

Përgjigja ndaj një EmbedTextRequest.

Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:

Fushat
objekt embedding object ( Embedding )

Vetëm dalje. Përfshirja e krijuar nga teksti hyrës.

Përfaqësimi JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metoda: modele.batchEmbedText

Gjeneron futje të shumta nga modeli i dhënë tekstit hyrës në një telefonatë sinkrone.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i Model që do të përdoret për gjenerimin e ngulitjes. Shembuj: modele/embedding-gecko-001 Ajo merr formën models/{model} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
string texts[]

Fakultative. Tekstet e hyrjes në formë të lirë që modeli do t'i shndërrojë në një ngulitje. Kufiri aktual është 100 tekste, mbi të cilat do të hidhet një gabim.

requests[] object ( EmbedTextRequest )

Fakultative. Vendosja e kërkesave për grupin. Mund të vendoset vetëm një nga texts ose requests .

Trupi i reagimit

Përgjigja ndaj një EmbedTextRequest.

Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:

Fushat
objekte embeddings[] object ( Embedding )

Vetëm dalje. Përfshirjet e krijuara nga teksti hyrës.

Përfaqësimi JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Kërkoni të merrni një ngulitje teksti nga modeli.

Fushat
string model

E detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}.

string text

Fakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.

Përfaqësimi JSON
{
  "model": string,
  "text": string
}

Metoda: tunedModels.generateText

Gjeneron një përgjigje nga modeli i dhënë një mesazh hyrës.

Pika përfundimtare

postoni https: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
URL-ja përdor sintaksën e transkodimit të gRPC .

Parametrat e rrugës

string model

E detyrueshme. Emri i Model ose TunedModel për t'u përdorur për gjenerimin e përfundimit. Shembuj: modele/text-bison-001 tunedModels/sentence-translator-u3b7m Merr formën tunedModels/{tunedmodel} .

Trupi i kërkesës

Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:

Fushat
objekti prompt object ( TextPrompt )

E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.

Duke marrë një kërkesë, modeli do të gjenerojë një përgjigje TextCompletion që e parashikon si përfundimin e tekstit hyrës.

objekti safetySettings[] object ( SafetySetting )

Fakultative. Një listë e rasteve unike SafetySetting për bllokimin e përmbajtjes së pasigurt.

që do të zbatohet në GenerateTextRequest.prompt dhe GenerateTextResponse.candidates . Nuk duhet të ketë më shumë se një cilësim për çdo lloj SafetyCategory . API do të bllokojë çdo kërkesë dhe përgjigje që nuk arrin të përmbushë kufijtë e vendosur nga këto cilësime. Kjo listë anashkalon cilësimet e paracaktuara për secilën SafetyCategory të specifikuar në Cilësimet e sigurisë. Nëse nuk ka SafetySetting për një SafetyCategory të dhënë në listë, API do të përdorë cilësimin e paracaktuar të sigurisë për atë kategori. Kategoritë e dëmtimit HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS mbështeten në shërbimin e tekstit.

string stopSequences[]

Grupi i sekuencave të karaktereve (deri në 5) që do të ndalojnë gjenerimin e prodhimit. Nëse specifikohet, API do të ndalojë në shfaqjen e parë të një sekuence ndalimi. Sekuenca e ndalimit nuk do të përfshihet si pjesë e përgjigjes.

number temperature

Fakultative. Kontrollon rastësinë e daljes. Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.temperatureModel që ktheu funksionin getModel .

Vlerat mund të variojnë nga [0.0,1.0], përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme dhe kreative, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më të drejtpërdrejta nga modeli.

candidateCount integer

Fakultative. Numri i përgjigjeve të gjeneruara për t'u kthyer.

Kjo vlerë duhet të jetë ndërmjet [1, 8], përfshirëse. Nëse nuk është caktuar, kjo do të jetë 1 e paracaktuar.

maxOutputTokens integer

Fakultative. Numri maksimal i argumenteve për t'u përfshirë në një kandidat.

Nëse nuk është caktuar, kjo do të jetë e paracaktuar në outputTokenLimit të specifikuar në specifikimin e Model .

number topP

Fakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Shenjat renditen në bazë të probabiliteteve të tyre të caktuara në mënyrë që të merren parasysh vetëm argumentet më të mundshëm. Mostra Top-k kufizon drejtpërdrejt numrin maksimal të argumenteve për t'u marrë në konsideratë, ndërsa kampionimi i bërthamës kufizon numrin e argumenteve bazuar në probabilitetin kumulativ.

Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_pModel që ktheu funksionin getModel .

topK integer

Fakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.

Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.

Mostra Top-k merr në konsideratë grupin e tokenëve më të mundshëm topK . Parazgjedhjet në 40.

Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_kModel që ktheu funksionin getModel .

Trupi i reagimit

Nëse është i suksesshëm, trupi i përgjigjes përmban një shembull të GenerateTextResponse .

Filtri i përmbajtjes

Të dhënat meta të filtrimit të përmbajtjes që lidhen me përpunimin e një kërkese të vetme.

ContentFilter përmban një arsye dhe një varg mbështetës opsional. Arsyeja mund të jetë e paspecifikuar.

Fushat
Arsyet reason enum ( BlockedReason )

Arsyeja pse përmbajtja u bllokua gjatë përpunimit të kërkesës.

string message

Një varg që përshkruan sjelljen e filtrimit në më shumë detaje.

Përfaqësimi JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

Arsyeja e bllokuar

Një listë e arsyeve pse përmbajtja mund të jetë bllokuar.

Enums
BLOCKED_REASON_UNSPECIFIED Arsyeja e bllokimit nuk u specifikua.
SAFETY Përmbajtja u bllokua nga cilësimet e sigurisë.
OTHER Përmbajtja u bllokua, por arsyeja është e pakategorizuar.

Embedding

Një listë e notave që përfaqësojnë përfshirjen.

Fushat
value[] number

Vlerat e ngulitjes.

Përfaqësimi JSON
{
  "value": [
    number
  ]
}

Mesazh

Njësia bazë e tekstit të strukturuar.

Një Message përfshin një author dhe content e Message .

author përdoret për të etiketuar mesazhet kur ato i jepen modelit si tekst.

Fushat
string author

Fakultative. Autori i këtij Mesazhi.

Ky shërben si një çelës për etiketimin e përmbajtjes së këtij Mesazhi kur i jepet modelit si tekst.

Autori mund të jetë çdo varg alfanumerik.

string content

E detyrueshme. Përmbajtja e tekstit të Message të strukturuar.

citationMetadata object ( CitationMetadata )

Vetëm dalje. Informacioni i citimit për content e krijuar nga modeli në këtë Message .

Nëse ky Message është krijuar si rezultat nga modeli, kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në content . Kjo fushë përdoret vetëm në dalje.

Përfaqësimi JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

Message Prompt

I gjithë teksti hyrës i strukturuar i kaloi modelit si një kërkesë.

Një MessagePrompt përmban një grup të strukturuar fushash që ofrojnë kontekst për bisedën, shembuj të çifteve të mesazheve hyrëse/model dalëse të përdoruesit që e paraqesin modelin për t'u përgjigjur në mënyra të ndryshme dhe historikun e bisedës ose listën e mesazheve që përfaqësojnë kthesat e alternuara të bisedës ndërmjet përdoruesi dhe modeli.

Fushat
string context

Fakultative. Teksti që duhet t'i jepet modelit fillimisht për të bazuar përgjigjen.

Nëse nuk është bosh, ky context do t'i jepet modelit së pari përpara examples dhe messages . Kur përdorni një context sigurohuni që t'i jepni atij çdo kërkesë për të ruajtur vazhdimësinë.

Kjo fushë mund të jetë një përshkrim i kërkesës suaj për modelin për të ndihmuar në dhënien e kontekstit dhe udhëheqjen e përgjigjeve. Shembuj: "Përkthe frazën nga anglishtja në frëngjisht." ose "Duke pasur një deklaratë, klasifikojeni ndjenjën si të lumtur, të trishtuar ose neutrale."

Çdo gjë e përfshirë në këtë fushë do të ketë përparësi ndaj historisë së mesazheve nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit dhe kërkesa e hyrjes shkurtohet.

examples[] object ( Example )

Fakultative. Shembuj të asaj që modeli duhet të gjenerojë.

Kjo përfshin hyrjen e përdoruesit dhe përgjigjen që modeli duhet të imitojë.

Këta examples trajtohen në mënyrë identike me mesazhet e bisedës, përveç se ato kanë përparësi ndaj historisë në messages : Nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit, hyrja do të shkurtohet. Artikujt do të hiqen nga messages përpara examples .

messages[] object ( Message )

E detyrueshme. Një fotografi e historisë së bisedave të fundit e renditur në mënyrë kronologjike.

Kthesat alternohen midis dy autorëve.

Nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit, hyrja do të shkurtohet: Artikujt më të vjetër do të hiqen nga messages .

Përfaqësimi JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Shembull

Një shembull hyrës/dalës i përdorur për të udhëzuar Modelin.

Ai tregon se si modeli duhet të përgjigjet ose të formatojë përgjigjen e tij.

Fushat
objekti input object ( Message )

E detyrueshme. Një shembull i një Message hyrës nga përdoruesi.

objekti output object ( Message )

E detyrueshme. Një shembull i asaj se çfarë duhet të nxjerrë modeli duke pasur parasysh hyrjen.

Përfaqësimi JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Përgjigja nga modeli, duke përfshirë plotësimet e kandidatëve.

Fushat
candidates[] object ( TextCompletion )

Përgjigjet e kandidatëve nga modeli.

filters[] object ( ContentFilter )

Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.

Kjo tregon se cila Kategori(et) SafetyCategory bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori. Kjo tregon ndryshimin më të vogël në SafetySettings që do të ishte i nevojshëm për të zhbllokuar të paktën 1 përgjigje.

Bllokimi konfigurohet nga SafetySettings në kërkesë (ose SafetySettings të paracaktuar të API).

safetyFeedback[] object ( SafetyFeedback )

Kthen çdo koment për sigurinë në lidhje me filtrimin e përmbajtjes.

Përfaqësimi JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

Plotësimi i tekstit

Teksti dalës i kthyer nga një model.

Fushat
output string

Vetëm dalje. Teksti i krijuar u kthye nga modeli.

Objekt safetyRatings[] object ( SafetyRating )

Vlerësimet për sigurinë e një përgjigjeje.

Ka më së shumti një vlerësim për kategori.

citationMetadata object ( CitationMetadata )

Vetëm dalje. Informacioni i citimit për output e krijuar nga modeli në këtë TextCompletion .

Kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në output .

Përfaqësimi JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

Siguria Feedback

Komentet e sigurisë për një kërkesë të tërë.

Kjo fushë plotësohet nëse përmbajtja në hyrje dhe/ose përgjigje është e bllokuar për shkak të cilësimeve të sigurisë. SafetyFeedback mund të mos ekzistojë për çdo kategori Harm. Çdo SafetyFeedback do të kthejë cilësimet e sigurisë të përdorura nga kërkesa, si dhe probabilitetin më të ulët të dëmtimit që duhet të lejohet për të kthyer një rezultat.

Fushat
object ( SafetyRating ) rating (SafetyRating)

Vlerësimi i sigurisë i vlerësuar nga përmbajtja.

objekti setting object ( SafetySetting )

Cilësimet e sigurisë aplikohen në kërkesë.

Përfaqësimi JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Teksti i dhënë modelit si një kërkesë.

Modeli do të përdorë këtë TextPrompt për të gjeneruar një kompletim teksti.

Fushat
string text

E detyrueshme. Teksti i shpejtë.

Përfaqësimi JSON
{
  "text": string
}