Metoda: modele.generateText
Gjeneron një përgjigje nga modeli i dhënë një mesazh hyrës.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateTextParametrat e rrugës
string model E detyrueshme. Emri i Model ose TunedModel për t'u përdorur për gjenerimin e përfundimit. Shembuj: modele/text-bison-001 tunedModels/sentence-translator-u3b7m Ajo merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
promptobject ( TextPrompt )E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.
Duke marrë një kërkesë, modeli do të gjenerojë një përgjigje TextCompletion që e parashikon si përfundimin e tekstit hyrës.
safetySettings[]object ( SafetySetting ) Fakultative. Një listë e rasteve unike të SafetySetting për bllokimin e përmbajtjes së pasigurt.
që do të zbatohet në GenerateTextRequest.prompt dhe GenerateTextResponse.candidates . Nuk duhet të ketë më shumë se një cilësim për çdo lloj SafetyCategory . API do të bllokojë çdo kërkesë dhe përgjigje që nuk arrin të përmbushë kufijtë e vendosur nga këto cilësime. Kjo listë anashkalon cilësimet e paracaktuara për secilën SafetyCategory të specifikuar në Cilësimet e sigurisë. Nëse nuk ka SafetySetting për një SafetyCategory të dhënë në listë, API do të përdorë cilësimin e paracaktuar të sigurisë për atë kategori. Kategoritë e dëmtimit HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS mbështeten në shërbimin e tekstit.
string stopSequences[]Grupi i sekuencave të karaktereve (deri në 5) që do të ndalojnë gjenerimin e prodhimit. Nëse specifikohet, API do të ndalojë në shfaqjen e parë të një sekuence ndalimi. Sekuenca e ndalimit nuk do të përfshihet si pjesë e përgjigjes.
number temperature Fakultative. Kontrollon rastësinë e daljes. Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.temperature të Model që ktheu funksionin getModel .
Vlerat mund të variojnë nga [0.0,1.0], përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme dhe kreative, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më të drejtpërdrejta nga modeli.
candidateCountintegerFakultative. Numri i përgjigjeve të gjeneruara për t'u kthyer.
Kjo vlerë duhet të jetë ndërmjet [1, 8], përfshirëse. Nëse nuk është caktuar, kjo do të jetë 1 e paracaktuar.
maxOutputTokensintegerFakultative. Numri maksimal i argumenteve për t'u përfshirë në një kandidat.
Nëse nuk është caktuar, kjo do të jetë e paracaktuar në outputTokenLimit të specifikuar në specifikimin e Model .
number topPFakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Shenjat renditen në bazë të probabiliteteve të tyre të caktuara në mënyrë që të merren parasysh vetëm argumentet më të mundshëm. Mostra Top-k kufizon drejtpërdrejt numrin maksimal të argumenteve për t'u marrë në konsideratë, ndërsa kampionimi i bërthamës kufizon numrin e argumenteve bazuar në probabilitetin kumulativ.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_p të Model që ktheu funksionin getModel .
topKintegerFakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Mostra Top-k merr në konsideratë grupin e tokenave më të mundshëm topK . Parazgjedhjet në 40.
Shënim: Vlera e paracaktuar ndryshon sipas modelit, shikoni atributin Model.top_k të Model që ktheu funksionin getModel .
Trupi i reagimit
Nëse është i suksesshëm, trupi i përgjigjes përmban një shembull të GenerateTextResponse .
Metoda: modele.countTextTokens
Ekzekuton tokenizuesin e një modeli në një tekst dhe kthen numërimin e shenjave.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokensParametrat e rrugës
string modelE detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.
Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list .
Formati: models/{model} Merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
promptobject ( TextPrompt )E detyrueshme. Teksti i hyrjes në formë të lirë i jepet modelit si një kërkesë.
Trupi i reagimit
Një përgjigje nga models.countTextTokens .
Ai kthen tokenCount të modelit për prompt .
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
tokenCountinteger Numri i shenjave në të cilat model shënon prompt .
Gjithmonë jo negative.
| Përfaqësimi JSON |
|---|
{ "tokenCount": integer } |
Metoda: modele.gjenerojMessage
Gjeneron një përgjigje nga modeli i dhënë një MessagePrompt hyrëse.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessageParametrat e rrugës
string modelE detyrueshme. Emri i modelit që do të përdoret.
Formati: name=models/{model} . Ajo merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
promptobject ( MessagePrompt )E detyrueshme. Inputi i strukturuar tekstual i dhënë modelit si një kërkesë.
Duke marrë një kërkesë, modeli do të kthejë atë që parashikon është mesazhi tjetër në diskutim.
number temperatureFakultative. Kontrollon rastësinë e daljes.
Vlerat mund të shkojnë mbi [0.0,1.0] , përfshirëse. Një vlerë më afër 1.0 do të prodhojë përgjigje që janë më të ndryshme, ndërsa një vlerë më afër 0.0 zakonisht do të rezultojë në përgjigje më pak befasuese nga modeli.
candidateCountintegerFakultative. Numri i mesazheve përgjigje të gjeneruara për t'u kthyer.
Kjo vlerë duhet të jetë ndërmjet [1, 8] përfshirëse. Nëse nuk është caktuar, kjo do të jetë e paracaktuar në 1 .
number topPFakultative. Probabiliteti maksimal kumulativ i argumenteve për t'u marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Kampionimi i bërthamës merr në konsideratë grupin më të vogël të argumenteve, shuma e probabilitetit të të cilëve është të paktën topP .
topKintegerFakultative. Numri maksimal i argumenteve që duhen marrë parasysh gjatë marrjes së mostrave.
Modeli përdor kampionimin e kombinuar Top-k dhe bërthamës.
Mostra Top-k merr në konsideratë grupin e tokenëve më të mundshëm topK .
Trupi i reagimit
Përgjigja nga modelja.
Kjo përfshin mesazhet e kandidatëve dhe historinë e bisedave në formën e mesazheve të renditura kronologjikisht.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
candidates[]object ( Message )Mesazhet e përgjigjes së kandidatit nga modeli.
messages[]object ( Message )Historia e bisedave të përdorura nga modeli.
filters[]object ( ContentFilter )Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.
Kjo tregon se cila Kategori(et) SafetyCategory bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori.
| Përfaqësimi JSON |
|---|
{ "candidates": [ { object ( |
Metoda: modele.countMessageTokens
Ekzekuton tokenizuesin e një modeli në një varg dhe kthen numërimin e shenjave.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokensParametrat e rrugës
string modelE detyrueshme. Emri i burimit të modelit. Kjo shërben si një ID për Modelin për t'u përdorur.
Ky emër duhet të përputhet me një emër modeli të kthyer nga metoda models.list .
Formati: models/{model} Merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
promptobject ( MessagePrompt )E detyrueshme. Prompt, numri i shenjave të të cilit duhet të kthehet.
Trupi i reagimit
Një përgjigje nga models.countMessageTokens .
Ai kthen tokenCount të modelit për prompt .
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
tokenCountinteger Numri i shenjave në të cilat model shënon prompt .
Gjithmonë jo negative.
| Përfaqësimi JSON |
|---|
{ "tokenCount": integer } |
Metoda: modele.embedText
Gjeneron një ngulitje nga modeli i dhënë një mesazh hyrës.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedTextParametrat e rrugës
string model E detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}. Ajo merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
string textFakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.
Metoda: modele.batchEmbedText
- Pika përfundimtare
- Parametrat e rrugës
- Trupi i kërkesës
- Trupi i reagimit
- Fusha e autorizimit
- EmbedTextRequest
Gjeneron futje të shumta nga modeli i dhënë tekstit hyrës në një telefonatë sinkrone.
Pika përfundimtare
postonihttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedTextParametrat e rrugës
string model E detyrueshme. Emri i Model që do të përdoret për gjenerimin e ngulitjes. Shembuj: modele/embedding-gecko-001 Ajo merr formën models/{model} .
Trupi i kërkesës
Trupi i kërkesës përmban të dhëna me strukturën e mëposhtme:
string texts[]Fakultative. Tekstet e hyrjes në formë të lirë që modeli do t'i shndërrojë në një ngulitje. Kufiri aktual është 100 tekste, mbi të cilat do të hidhet një gabim.
requests[]object ( EmbedTextRequest ) Fakultative. Vendosja e kërkesave për grupin. Mund të vendoset vetëm një nga texts ose requests .
Trupi i reagimit
Përgjigja ndaj një EmbedTextRequest.
Nëse është i suksesshëm, trupi i përgjigjes përmban të dhëna me strukturën e mëposhtme:
embeddings[]object ( Embedding )Vetëm dalje. Përfshirjet e krijuara nga teksti hyrës.
| Përfaqësimi JSON |
|---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Kërkoni të merrni një ngulitje teksti nga modeli.
string modelE detyrueshme. Emri i modelit për t'u përdorur me formatin model=models/{model}.
string textFakultative. Teksti i hyrjes në formë të lirë që modeli do ta shndërrojë në një ngulitje.
| Përfaqësimi JSON |
|---|
{ "model": string, "text": string } |
Filtri i përmbajtjes
Të dhënat meta të filtrimit të përmbajtjes që lidhen me përpunimin e një kërkese të vetme.
ContentFilter përmban një arsye dhe një varg mbështetës opsional. Arsyeja mund të jetë e paspecifikuar.
reasonenum ( BlockedReason )Arsyeja pse përmbajtja u bllokua gjatë përpunimit të kërkesës.
string messageNjë varg që përshkruan sjelljen e filtrimit në më shumë detaje.
| Përfaqësimi JSON |
|---|
{
"reason": enum ( |
Arsyeja e bllokuar
Një listë e arsyeve pse përmbajtja mund të jetë bllokuar.
| Enums | |
|---|---|
BLOCKED_REASON_UNSPECIFIED | Arsyeja e bllokimit nuk u specifikua. |
SAFETY | Përmbajtja u bllokua nga cilësimet e sigurisë. |
OTHER | Përmbajtja u bllokua, por arsyeja është e pakategorizuar. |
Embedding
Një listë e notave që përfaqësojnë përfshirjen.
value[]numberVlerat e ngulitjes.
| Përfaqësimi JSON |
|---|
{ "value": [ number ] } |
Mesazh
Njësia bazë e tekstit të strukturuar.
Një Message përfshin një author dhe content e Message .
author përdoret për të etiketuar mesazhet kur ato i jepen modelit si tekst.
string content E detyrueshme. Përmbajtja e tekstit të Message të strukturuar.
citationMetadataobject ( CitationMetadata ) Vetëm dalje. Informacioni i citimit për content e krijuar nga modeli në këtë Message .
Nëse ky Message është krijuar si rezultat nga modeli, kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në content . Kjo fushë përdoret vetëm në dalje.
| Përfaqësimi JSON |
|---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
Message Prompt
I gjithë teksti hyrës i strukturuar i kaloi modelit si një kërkesë.
Një MessagePrompt përmban një grup të strukturuar fushash që ofrojnë kontekst për bisedën, shembuj të çifteve të mesazheve hyrëse/model dalëse të përdoruesit që e paraqesin modelin për t'u përgjigjur në mënyra të ndryshme dhe historikun e bisedave ose listën e mesazheve që përfaqësojnë kthesat e alternuara të bisedës midis përdoruesit dhe modelit.
string contextFakultative. Teksti që duhet t'i jepet modelit fillimisht për të bazuar përgjigjen.
Nëse nuk është bosh, ky context do t'i jepet modelit së pari përpara examples dhe messages . Kur përdorni një context , sigurohuni që t'i jepni atij çdo kërkesë për të ruajtur vazhdimësinë.
Kjo fushë mund të jetë një përshkrim i kërkesës suaj për modelin për të ndihmuar në dhënien e kontekstit dhe udhëheqjen e përgjigjeve. Shembuj: "Përkthe frazën nga anglishtja në frëngjisht." ose "Duke pasur një deklaratë, klasifikojeni ndjenjën si të lumtur, të trishtuar ose neutrale."
Çdo gjë e përfshirë në këtë fushë do të ketë përparësi ndaj historisë së mesazheve nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit dhe kërkesa e hyrjes shkurtohet.
examples[]object ( Example )Fakultative. Shembuj të asaj që modeli duhet të gjenerojë.
Kjo përfshin hyrjen e përdoruesit dhe përgjigjen që modeli duhet të imitojë.
Këta examples trajtohen në mënyrë identike me mesazhet e bisedës, përveç se ato kanë përparësi ndaj historisë në messages : Nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit, hyrja do të shkurtohet. Artikujt do të hiqen nga messages përpara examples .
messages[]object ( Message )E detyrueshme. Një fotografi e historisë së bisedave të fundit e renditur në mënyrë kronologjike.
Kthesat alternohen midis dy autorëve.
Nëse madhësia totale e hyrjes tejkalon inputTokenLimit të modelit, hyrja do të shkurtohet: Artikujt më të vjetër do të hiqen nga messages .
Shembull
Një shembull hyrës/dalës i përdorur për të udhëzuar Modelin.
Ai tregon se si modeli duhet të përgjigjet ose të formatojë përgjigjen e tij.
inputobject ( Message ) E detyrueshme. Një shembull i një Message hyrës nga përdoruesi.
outputobject ( Message )E detyrueshme. Një shembull i asaj se çfarë duhet të nxjerrë modeli duke pasur parasysh hyrjen.
GenerateTextResponse
Përgjigja nga modeli, duke përfshirë plotësimet e kandidatëve.
candidates[]object ( TextCompletion )Përgjigjet e kandidatëve nga modeli.
filters[]object ( ContentFilter )Një grup meta të dhënash për filtrimin e përmbajtjes për tekstin e kërkesës dhe përgjigjes.
Kjo tregon se cila Kategori(et) SafetyCategory bllokoi një kandidat nga kjo përgjigje, probabilitetin më të ulët HarmProbability që shkaktoi një bllok dhe cilësimin e Pragut të Harmimit për atë kategori. Kjo tregon ndryshimin më të vogël në SafetySettings që do të ishte i nevojshëm për të zhbllokuar të paktën 1 përgjigje.
Bllokimi konfigurohet nga SafetySettings në kërkesë (ose SafetySettings të paracaktuar të API).
safetyFeedback[]object ( SafetyFeedback )Kthen çdo koment për sigurinë në lidhje me filtrimin e përmbajtjes.
| Përfaqësimi JSON |
|---|
{ "candidates": [ { object ( |
Plotësimi i tekstit
Teksti dalës i kthyer nga një model.
string outputVetëm dalje. Teksti i krijuar u kthye nga modeli.
safetyRatings[]object ( SafetyRating )Vlerësimet për sigurinë e një përgjigjeje.
Ka më së shumti një vlerësim për kategori.
citationMetadataobject ( CitationMetadata ) Vetëm dalje. Informacioni i citimit për output e krijuar nga modeli në këtë TextCompletion .
Kjo fushë mund të plotësohet me informacion atribut për çdo tekst të përfshirë në output .
| Përfaqësimi JSON |
|---|
{ "output": string, "safetyRatings": [ { object ( |
Siguria Feedback
Komentet e sigurisë për një kërkesë të tërë.
Kjo fushë plotësohet nëse përmbajtja në hyrje dhe/ose përgjigje është e bllokuar për shkak të cilësimeve të sigurisë. SafetyFeedback mund të mos ekzistojë për çdo kategori Harm. Çdo SafetyFeedback do të kthejë cilësimet e sigurisë të përdorura nga kërkesa, si dhe probabilitetin më të ulët të dëmtimit që duhet të lejohet për të kthyer një rezultat.
object ( SafetyRating ) ratingVlerësimi i sigurisë i vlerësuar nga përmbajtja.
settingobject ( SafetySetting )Cilësimet e sigurisë aplikohen në kërkesë.
| Përfaqësimi JSON |
|---|
{ "rating": { object ( |