Metoda: models.generateText
Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextParametry ścieżki
model
string
Wymagane. Nazwa elementu Model
lub TunedModel
, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.
Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które będą egzekwowane w GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.
stopSequences[]
string
Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
elementu Model
, który zwrócił funkcję getModel
.
Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i nukleusów.
Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
, który zwrócił funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model korzysta z połączonego losowania Top-k i jądra.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
elementu Model
, który zwrócił funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
Metoda: Modele.countTextTokens
Uruchamia tokenizację modelu w tekście i zwraca liczbę tokenów.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensParametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Tekst niesformatowany podany modelowi jako prompt.
Treść odpowiedzi
Odpowiedź z models.countTextTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli prompt
.
Zawsze dodatnia.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: Modele.generateMessage
Generuje odpowiedź na podstawie modelu z danymi wejściowymi MessagePrompt
.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageParametry ścieżki
model
string
Wymagane. Nazwa modelu do użycia.
Format: name=models/{model}
. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Uporządkowany tekst wpisywany do modelu jako prompt.
Po otrzymaniu promptu model zwróci prognozę i następną wiadomość w rozmowie.
temperature
number
Opcjonalnie: Określa losowość wyników.
Wartości mogą się mieścić w przedziale powyżej [0.0,1.0]
. Wartość zbliżona do 1.0
spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0
spowoduje, że odpowiedzi będą mniej zaskakujące.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.
Ta wartość musi mieścić się w przedziale od [1, 8]
. Jeśli nie są ustawione, domyślna wartość to 1
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i nukleusów.
Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model korzysta z połączonego losowania Top-k i jądra.
Próbkowanie Top-K uwzględnia zbiór topK
najbardziej prawdopodobnych tokenów.
Treść odpowiedzi
odpowiedź modelu.
Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości w porządku chronologicznym.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
candidates[]
object (Message
)
Odpowiedzi kandydatów na podstawie modelu.
messages[]
object (Message
)
historia rozmowy używana przez model.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje, który element(SafetyCategory
) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii.
Zapis JSON |
---|
{ "candidates": [ { object ( |
Metoda: Modele.countMessageTokens
Uruchamia tokenizację modelu w ciągu znaków i zwraca liczbę tokenów.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensParametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.
Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list
.
Format: models/{model}
. Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Prompka, dla którego ma zostać zwrócona liczba tokenów.
Treść odpowiedzi
Odpowiedź od użytkownika models.countMessageTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, na które model
dzieli prompt
.
Zawsze dodatnia.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: Modele.embedText
Generuje wstępną reprezentację z modelu na podstawie wiadomości wejściowej.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextParametry ścieżki
model
string
Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
text
string
Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.
Metoda: Modele.batchEmbedText
Generuje w wywołaniu synchronicznym wiele zasobów danych z modelu na podstawie tekstu wejściowego.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextParametry ścieżki
model
string
Wymagane. Nazwa obiektu Model
, który ma być używany do generowania wektora dystrybucyjnego. Przykłady: models/embedding-gecko-001 ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
texts[]
string
Opcjonalnie: Teksty wejściowe w dowolnej formie, które model przekształci w embedding. Obecny limit to 100 tekstów, powyżej których zostanie zgłoszony błąd.
requests[]
object (EmbedTextRequest
)
Opcjonalnie: umieszczać prośby w zbiorze. Można ustawić tylko jedną z tych wartości: texts
lub requests
.
Treść odpowiedzi
Odpowiedź na żądanie EmbedTextRequest.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
embeddings[]
object (Embedding
)
Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane z tekstu wejściowego.
Zapis JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Prześlij żądanie uzyskania wektorów tekstowych z modelu.
model
string
Wymagane. Nazwa modelu w formacie model=models/{model}.
text
string
Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.
Zapis JSON |
---|
{ "model": string, "text": string } |
Metoda: tunelModels.generateText
Generuje odpowiedź modelu na podstawie przesłanej wiadomości.
Punkt końcowy
post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextParametry ścieżki
model
string
Wymagane. Nazwa elementu Model
lub TunedModel
, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.
Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które będą egzekwowane w GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. W przypadku każdego typu SafetyCategory
nie powinno być więcej niż 1 ustawienia. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.
stopSequences[]
string
Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
elementu Model
, który zwrócił funkcję getModel
.
Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i nukleusów.
Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
, który zwrócił funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model korzysta z połączonego losowania Top-k i jądra.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
elementu Model
, który zwrócił funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
ContentFilter
metadane filtrowania treści powiązane z przetworzeniem pojedynczego żądania.
ContentFilter zawiera uzasadnienie oraz opcjonalny dodatkowy ciąg znaków. Przyczyna może być nieokreślona.
reason
enum (BlockedReason
)
Powód zablokowania treści podczas przetwarzania żądania.
message
string
Ciąg znaków, który bardziej szczegółowo opisuje działanie filtrowania.
Zapis JSON |
---|
{
"reason": enum ( |
BlockedReason
Lista powodów, dla których treści mogły zostać zablokowane
Wartości w polu enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Nie podano powodu zablokowania. |
SAFETY |
Treść została zablokowana przez ustawienia bezpieczeństwa. |
OTHER |
Treści zostały zablokowane, ale powód nie został skategoryzowany. |
Umieszczanie
Lista liczb zmiennoprzecinkowych reprezentujących zakotwiczoną wartość.
value[]
number
Wartości wstawiania.
Zapis JSON |
---|
{ "value": [ number ] } |
Wiadomość
Podstawowa jednostka tekstu uporządkowanego.
Element Message
obejmuje elementy author
i content
elementu Message
.
Element author
jest używany do tagowania wiadomości, jeśli są one przesyłane do modelu jako tekst.
content
string
Wymagane. Treść tekstowa uporządkowanego elementu Message
.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje o cytowaniu content
wygenerowanego przez model w tym Message
.
Jeśli ten Message
został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w content
. To pole jest używane tylko w wyjściu.
Zapis JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Cały ustrukturyzowany tekst wejściowy przekazywany do modelu jako prompt.
MessagePrompt
zawiera uporządkowany zestaw pól, które stanowią kontekst rozmowy, przykłady par wiadomości danych wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości, które odzwierciedlają naprzemienne kolejki rozmów między użytkownikiem a modelem.
context
string
Opcjonalnie: Tekst, który należy najpierw podać modelowi, aby uzyskać odpowiedź.
Jeśli nie jest pusty, model otrzyma najpierw ten parametr context
, a dopiero potem examples
i messages
. Aby zachować ciągłość, pamiętaj, aby podawać go przy każdym żądaniu.
To pole może być opisem promptu dla modelu, aby zapewnić kontekst i nakierować odpowiedzi. Przykłady: „Przetłumacz wyrażenie z angielskiego na francuski”. lub „Określ, w jakim odczuciu sformułowano dane wyrażenie: szczęśliwe, smutne lub neutralne”.
Wszystko, co znajduje się w tym polu, będzie miało pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit
modelu, a żądanie wejściowe zostanie obcięte.
examples[]
object (Example
)
Opcjonalnie: Przykłady danych, które powinien wygenerować model.
Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.
Te examples
są traktowane tak samo jak wiadomości w rozmowie, z tą różnicą, że mają pierwszeństwo przed historią w messages
: jeśli łączny rozmiar danych wejściowych przekroczy inputTokenLimit
modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z tabeli messages
przed examples
.
messages[]
object (Message
)
Wymagane. Zrzut z historią ostatnich rozmów posortowany chronologicznie.
Przełącza się między 2 autorami.
Jeśli łączny rozmiar danych wejściowych przekracza wartość parametru inputTokenLimit
modelu, dane wejściowe zostaną obcięte: z parametru messages
zostaną usunięte najstarsze elementy.
Przykład
Przykład danych wejściowych/wyjściowych używany do instruktażowego trenowania modelu.
Pokazuje, jak model powinien odpowiadać lub formatować odpowiedzi.
input
object (Message
)
Wymagane. Przykład danych wejściowych Message
użytkownika.
output
object (Message
)
Wymagane. Przykład danych wyjściowych modelu z danymi wejściowymi.
GenerateTextResponse
Odpowiedź z modelu, w tym uzupełnienia kandydatów.
candidates[]
object (TextCompletion
)
Odpowiedzi kandydata z modelu.
filters[]
object (ContentFilter
)
Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.
Wskazuje, który element(SafetyCategory
) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii. Wskazuje najmniejszą zmianę w wartości SafetySettings
, która umożliwi odblokowanie co najmniej 1 odpowiedzi.
Blokowanie jest konfigurowane przez interfejs SafetySettings
w żądaniu (lub domyślne SafetySettings
interfejsu API).
safetyFeedback[]
object (SafetyFeedback
)
Zwraca wszystkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.
Zapis JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Tekst wyjściowy zwrócony z modelu.
output
string
Tylko dane wyjściowe. Tekst wygenerowany przez model.
safetyRatings[]
object (SafetyRating
)
Oceny bezpieczeństwa odpowiedzi.
W każdej kategorii może być maksymalnie 1 ocena.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu output
w tym dokumencie: TextCompletion
.
To pole może zostać wypełnione informacjami o pochodzeniu danych w przypadku dowolnego tekstu zawartego w dokumencie output
.
Zapis JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Opinia na temat bezpieczeństwa dla całego żądania.
To pole jest wypełniane, jeśli treść wejściowa lub odpowiedź jest zablokowana z powodu ustawień bezpieczeństwa. Informacje zwrotne dotyczące bezpieczeństwa mogą nie być dostępne w przypadku niektórych kategorii szkodliwości. Każda odpowiedź z SafetyFeedback zwróci ustawienia bezpieczeństwa używane przez żądanie, a także najniższą wartość prawdopodobieństwa wyrządzenia szkody, która powinna być dozwolona, aby zwrócić wynik.
rating
object (SafetyRating
)
Ocena bezpieczeństwa oceniona na podstawie treści.
setting
object (SafetySetting
)
Ustawienia bezpieczeństwa zostały zastosowane do żądania.
Zapis JSON |
---|
{ "rating": { object ( |