Metoda: models.generateText
Generuje odpowiedź modelu na podstawie wiadomości wejściowej.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
Parametry ścieżki
model
string
Wymagane. Nazwa Model
lub TunedModel
, której należy użyć do wygenerowania zakończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst niesformatowany podany modelowi jako prompt.
Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które będą obowiązywać w przypadku znaczników GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API zablokuje wszystkie prompty i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
Zestaw sekwencji znaków (maksymalnie 5), który powoduje zatrzymanie generowania danych wyjściowych. Jeśli jest to określone, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
funkcji Model
zwracanej przez funkcję getModel
.
Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość zbliżona do 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość zbliżona do 0,0 spowoduje, że model będzie zwykle generować bardziej bezpośrednie odpowiedzi.
candidateCount
integer
Opcjonalnie: Liczba generowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie jest ustawiona, przyjmuje domyślnie wartość 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest ustawiony, domyślnie zostanie użyta wartość outputTokenLimit określona w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Tokeny są sortowane według przypisanych im prawdopodobieństw, dzięki czemu uwzględniane są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, podczas gdy próbkowanie Nucleus ogranicza liczbę tokenów na podstawie skumulowanego prawdopodobieństwa.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
zwracanego przez funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
funkcji Model
zwracanej przez funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
Metoda: models.countTextTokens
Wykonuje tokenizer modelu na tekście i zwraca liczbę tokenów.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst niesformatowany podany modelowi jako prompt.
Treść odpowiedzi
Odpowiedź od models.countTextTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli dane prompt
.
Zawsze dodatnia.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: models.generateMessage
Generuje odpowiedź modelu na podstawie wejścia MessagePrompt
.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
Parametry ścieżki
model
string
Wymagane. Nazwa modelu do użycia.
Format: name=models/{model}
. Ma ona postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Uporządkowany tekst, który jest przekazywany jako dane wejściowe do modelu w formie promptu.
Na podstawie prompta model zwróci przewidywane następne wiadomość w dyskusji.
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych.
Wartości mogą mieścić się w zakresie [0.0,1.0]
(obustronnie domkniętym). Wartość zbliżona do 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0
spowoduje, że model będzie generował mniej zaskakujących odpowiedzi.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.
Ta wartość musi mieścić się w przedziale od [1, 8]
włącznie. Jeśli nie są ustawione, Google przyjmuje domyślnie 1
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów.
Treść odpowiedzi
odpowiedź modelu.
Obejmuje to wiadomości kandydatów i historię rozmów w formie wiadomości uporządkowanych chronologicznie.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
candidates[]
object (Message
)
Odpowiedzi kandydatów na podstawie modelu.
messages[]
object (Message
)
historia rozmowy używana przez model.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje, które SafetyCategory
zablokowały kandydata w tej odpowiedzi, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie HarmThreshold dla tej kategorii.
Zapis JSON |
---|
{ "candidates": [ { object ( |
Metoda: models.countMessageTokens
Wykonuje na ciągu tokenizację według modelu i zwraca liczbę tokenów.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Prompka, którego liczba tokenów ma zostać zwrócona.
Treść odpowiedzi
Odpowiedź od models.countMessageTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli dane prompt
.
Zawsze dodatnia.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: models.embedText
Generuje w ramach modelu zakodowanie słów na podstawie podanego komunikatu wejściowego.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
Parametry ścieżki
model
string
Wymagane. Nazwa modelu w formacie model=models/{model}. Ma ona postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
text
string
Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.
Metoda: models.batchEmbedText
Generuje wiele wektorów wstępujących na podstawie modelu i tekstu wejściowego w wywołaniu synchronicznym.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
Parametry ścieżki
model
string
Wymagane. Nazwa Model
, która ma służyć do wygenerowania wektora dystrybucyjnego. Przykłady: models/embedding-gecko-001. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
texts[]
string
Opcjonalnie: Teksty w dowolnej formie, które model przekształci w embedding. Obecny limit to 100 tekstów. Po przekroczeniu tej liczby zostanie wyświetlony komunikat o błędzie.
requests[]
object (EmbedTextRequest
)
Opcjonalnie: Prześlij prośby o przeniesienie zbiorcze. Można ustawić tylko jedną wartość texts
lub requests
.
Treść odpowiedzi
Odpowiedź na żądanie embedTextRequest.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
embeddings[]
object (Embedding
)
Tylko dane wyjściowe. Wektory generowane na podstawie tekstu wejściowego.
Zapis JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Poproś o uzyskanie wektorów tekstowych z modelu.
model
string
Wymagane. Nazwa modelu w formacie model=models/{model}.
text
string
Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.
Zapis JSON |
---|
{ "model": string, "text": string } |
Metoda: tunedModels.generateText
Generuje odpowiedź modelu na podstawie wiadomości wejściowej.
Punkt końcowy
posthttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
Parametry ścieżki
model
string
Wymagane. Nazwa Model
lub TunedModel
, której należy użyć do wygenerowania zakończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst niesformatowany podany modelowi jako prompt.
Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które będą obowiązywać w przypadku znaczników GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API zablokuje wszystkie prompty i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory
określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting
dla danego SafetyCategory
, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
Zestaw sekwencji znaków (maksymalnie 5), który powoduje zatrzymanie generowania danych wyjściowych. Jeśli jest to określone, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
funkcji Model
zwracanej przez funkcję getModel
.
Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość zbliżona do 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość zbliżona do 0,0 spowoduje, że model będzie zwykle generować bardziej bezpośrednie odpowiedzi.
candidateCount
integer
Opcjonalnie: Liczba generowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie jest ustawiona, przyjmuje domyślnie wartość 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest ustawiony, domyślnie zostanie użyta wartość outputTokenLimit określona w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Tokeny są sortowane według przypisanych im prawdopodobieństw, dzięki czemu uwzględniane są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, podczas gdy próbkowanie Nucleus ogranicza liczbę tokenów na podstawie skumulowanego prawdopodobieństwa.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
zwracanego przez funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
funkcji Model
zwracanej przez funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
ContentFilter
metadane filtrowania treści powiązane z przetwarzaniem pojedynczego żądania;
ContentFilter zawiera powód i opcjonalny ciąg tekstowy. Przyczyna może być nieokreślona.
reason
enum (BlockedReason
)
Powód zablokowania treści podczas przetwarzania żądania.
message
string
Ciąg znaków opisujący szczegółowo sposób działania filtrowania.
Zapis JSON |
---|
{
"reason": enum ( |
BlockedReason
Lista przyczyn, dla których treści mogły zostać zablokowane.
Wartości w polu enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Nie podano powodu zablokowania. |
SAFETY |
Treści zostały zablokowane przez ustawienia bezpieczeństwa. |
OTHER |
Treści zostały zablokowane, ale powód nie został skategoryzowany. |
Umieszczanie
Lista liczb zmiennoprzecinkowych reprezentujących zakotwiczoną wartość.
value[]
number
wartości wstawiania.
Zapis JSON |
---|
{ "value": [ number ] } |
Wiadomość
Podstawowa jednostka uporządkowanego tekstu.
Element Message
zawiera element author
i content
elementu Message
.
Wartość author
służy do oznaczania wiadomości, gdy są one przekazywane do modelu jako tekst.
content
string
Wymagane. Treść tekstowa uporządkowanego elementu Message
.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu content
wygenerowanego przez model w tym Message
.
Jeśli ten element Message
został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w elementach content
. To pole jest używane tylko w wyjściu.
Zapis JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
cały uporządkowany tekst wejściowy przekazany modelowi jako prompt;
MessagePrompt
zawiera uporządkowany zestaw pól, które stanowią kontekst rozmowy, przykłady par wiadomości danych wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości, które odzwierciedlają naprzemienne kolejki w rozmowie między użytkownikiem a modelem.
context
string
Opcjonalnie: Tekst, który należy najpierw podać modelowi, aby ugruntować odpowiedź.
Jeśli nie jest pusty, model otrzyma najpierw ten parametr context
, a dopiero potem examples
i messages
. Aby zachować ciągłość, pamiętaj, aby podawać go przy każdym żądaniu.context
To pole może zawierać opis prompta dla modelu, który pomoże w ustanowieniu kontekstu i określeniu odpowiedzi. Przykłady: „Przetłumacz wyrażenie z języka angielskiego na francuski” lub „Dane stwierdzenie zaklasyfikuj jako radosne, smutne lub neutralne”.
Jeśli łączny rozmiar danych wejściowych przekroczy wartość parametru inputTokenLimit
modelu, a żądanie wejściowe zostanie obcięte, wszystko, co jest zawarte w tym polu, będzie miało pierwszeństwo przed historią wiadomości.
examples[]
object (Example
)
Opcjonalnie: przykłady tego, co model powinien generować;
Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.
Te examples
są traktowane tak samo jak wiadomości w rozmowie, z tą różnicą, że mają pierwszeństwo przed historią w messages
: jeśli łączny rozmiar danych wejściowych przekroczy wartość inputTokenLimit
modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z tabeli messages
przed examples
.
messages[]
object (Message
)
Wymagane. Zrzut z historią ostatnich rozmów posortowany chronologicznie.
Przełączanie się między 2 autorami.
Jeśli łączny rozmiar danych wejściowych przekracza wartość parametru inputTokenLimit
modelu, dane wejściowe zostaną obcięte: z parametru messages
zostaną usunięte najstarsze elementy.
Przykład
Przykład danych wejściowych/wyjściowych używany do instruktażowego trenowania modelu.
Pokazuje, jak model powinien odpowiadać lub formatować odpowiedzi.
input
object (Message
)
Wymagane. Przykład danych wejściowych Message
od użytkownika.
output
object (Message
)
Wymagane. Przykład danych wyjściowych modelu dla podanych danych wejściowych.
GenerateTextResponse
odpowiedź modelu, w tym kandydatów na kandydatów;
candidates[]
object (TextCompletion
)
Odpowiedzi kandydatów na podstawie modelu.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje, które SafetyCategory
zablokowały kandydata w tej odpowiedzi, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie HarmThreshold dla tej kategorii. Ta wartość wskazuje najmniejszą zmianę w wartości SafetySettings
, która umożliwi odblokowanie co najmniej 1 odpowiedzi.
Blokowanie jest konfigurowane przez SafetySettings
w żądaniu (lub domyślny SafetySettings
interfejsu API).
safetyFeedback[]
object (SafetyFeedback
)
Zwraca wszelkie informacje dotyczące bezpieczeństwa związane z filtrowaniem treści.
Zapis JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Tekst wyjściowy zwrócony przez model.
output
string
Tylko dane wyjściowe. Wygenerowany tekst zwrócony przez model.
safetyRatings[]
object (SafetyRating
)
Oceny bezpieczeństwa odpowiedzi.
W każdej kategorii może być maksymalnie 1 ocena.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu output
wygenerowanego przez model w tym TextCompletion
.
To pole może zawierać informacje o przypisaniu dotyczące dowolnego tekstu zawartego w elementach output
.
Zapis JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
opinia dotycząca bezpieczeństwa dotycząca całego zgłoszenia;
To pole jest wypełniane, jeśli treści w danych wejściowych lub odpowiedzi są zablokowane z powodu ustawień bezpieczeństwa. Informacje zwrotne dotyczące bezpieczeństwa mogą nie być dostępne w przypadku niektórych kategorii szkodliwości. Każda odpowiedź z SafetyFeedback zwróci ustawienia bezpieczeństwa używane przez żądanie, a także najniższą wartość prawdopodobieństwa wyrządzenia szkody, która powinna być dozwolona, aby zwrócić wynik.
rating
object (SafetyRating
)
Ocena bezpieczeństwa oceniona na podstawie treści.
setting
object (SafetySetting
)
ustawienia bezpieczeństwa zastosowane w prośbie;
Zapis JSON |
---|
{ "rating": { object ( |