Metoda: Modele.generateText
Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
Parametry ścieżki
model
string
Wymagane. Nazwa elementu Model
lub TunedModel
, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.
Po otrzymaniu promptu model wygeneruje odpowiedź TextComplete, która prognozuje jako dokończenie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które zostaną zastosowane w GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. Każdy typ SafetyCategory
powinien mieć maksymalnie 1 ustawienie. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.
stopSequences[]
string
Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
elementu Model
, który zwrócił funkcję getModel
.
Wartości mogą mieścić się w zakresie od [0,0,1,0] włącznie. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w zakresie od [1 do 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
, który zwrócił funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
elementu Model
, który zwrócił funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
Metoda: Modele.countTextTokens
Uruchamia tokenizację modelu w tekście i zwraca liczbę tokenów.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator, którego model ma używać.
Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list
.
Format: models/{model}
Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.
Treść odpowiedzi
Odpowiedź od użytkownika models.countTextTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, do których model
tokenizuje token prompt
.
Zawsze nieujemna.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: Modele.generateMessage
Generuje odpowiedź na podstawie modelu z danymi wejściowymi MessagePrompt
.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
Parametry ścieżki
model
string
Wymagane. Nazwa modelu, którego chcesz użyć.
Format: name=models/{model}
. Ma on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Uporządkowany tekst wpisywany do modelu jako prompt.
Po otrzymaniu promptu model zwróci prognozę i następną wiadomość w rozmowie.
temperature
number
Opcjonalnie: Określa losowość wyników.
Wartości mogą się mieścić w przedziale powyżej [0.0,1.0]
. Wartość bliższa 1.0
daje bardziej zróżnicowane odpowiedzi, a wartość bliższa 0.0
daje zwykle mniej zaskakujących odpowiedzi z modelu.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedziami do zwrócenia.
Ta wartość musi mieścić się w przedziale od [1, 8]
. Jeśli nie są ustawione, domyślna wartość to 1
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Próbkowanie nucleusa uwzględnia najmniejszy zestaw tokenów, którego suma prawdopodobieństwa wynosi co najmniej topP
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów.
Treść odpowiedzi
Odpowiedź z modelu.
Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości w porządku chronologicznym.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
candidates[]
object (Message
)
Komunikaty z odpowiedziami dla kandydatów z modelu.
messages[]
object (Message
)
Historia rozmów używana przez model.
filters[]
object (ContentFilter
)
Zbiór metadanych do filtrowania treści promptów i tekstu odpowiedzi.
Wskazuje, który element(SafetyCategory
) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii.
Zapis JSON |
---|
{ "candidates": [ { object ( |
Metoda: Modele.countMessageTokens
Uruchamia tokenizację modelu w ciągu znaków i zwraca liczbę tokenów.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
Parametry ścieżki
model
string
Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator, którego model ma używać.
Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list
.
Format: models/{model}
Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (MessagePrompt
)
Wymagane. Prompt, którego liczba tokenów ma zostać zwrócona.
Treść odpowiedzi
Odpowiedź od użytkownika models.countMessageTokens
.
Zwraca tokenCount
modelu dla prompt
.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
tokenCount
integer
Liczba tokenów, do których model
tokenizuje token prompt
.
Zawsze nieujemna.
Zapis JSON |
---|
{ "tokenCount": integer } |
Metoda: Modele.embedText
Generuje wektor dystrybucyjny z modelu z podanym komunikatem wejściowym.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
Parametry ścieżki
model
string
Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}. Przyjmuje on postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
text
string
Opcjonalnie: Swobodny tekst wejściowy, który model zostanie przekształcony w wektor dystrybucyjny.
Treść odpowiedzi
Odpowiedź na żądanie EmbedTextRequest.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
embedding
object (Embedding
)
Tylko dane wyjściowe. Wektor dystrybucyjny wygenerowany na podstawie tekstu wejściowego.
Zapis JSON |
---|
{
"embedding": {
object ( |
Metoda: Modele.batchEmbedText
Generuje wiele wektorów dystrybucyjnych z modelu podanego tekstu wejściowego w wywołaniu synchronicznym.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
Parametry ścieżki
model
string
Wymagane. Nazwa obiektu Model
, który ma być używany do generowania wektora dystrybucyjnego. Przykłady: model/embedding-gecko-001 Przyjmuje postać models/{model}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
texts[]
string
Opcjonalnie: Swobodne teksty wejściowe, które model przekształci w wektor dystrybucyjny. Obecny limit to 100 tekstów, powyżej których zostanie zgłoszony błąd.
requests[]
object (EmbedTextRequest
)
Opcjonalnie: Prośby o umieszczenie wsadu. Można ustawić tylko jedną z tych wartości: texts
lub requests
.
Treść odpowiedzi
Odpowiedź na żądanie EmbedTextRequest.
W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:
embeddings[]
object (Embedding
)
Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane z tekstu wejściowego.
Zapis JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Żądanie pobrania osadzonego tekstu z modelu.
model
string
Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}.
text
string
Opcjonalnie: Swobodny tekst wejściowy, który model zostanie przekształcony w wektor dystrybucyjny.
Zapis JSON |
---|
{ "model": string, "text": string } |
Metoda: preferredModels.generateText
Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.
Punkt końcowy
post
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
Parametry ścieżki
model
string
Wymagane. Nazwa elementu Model
lub TunedModel
, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać tunedModels/{tunedmodel}
.
Treść żądania
Treść żądania zawiera dane o następującej strukturze:
prompt
object (TextPrompt
)
Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.
Po otrzymaniu promptu model wygeneruje odpowiedź TextComplete, która prognozuje jako dokończenie tekstu wejściowego.
safetySettings[]
object (SafetySetting
)
Opcjonalnie: Lista unikalnych instancji SafetySetting
do blokowania niebezpiecznych treści.
które zostaną zastosowane w GenerateTextRequest.prompt
i GenerateTextResponse.candidates
. Każdy typ SafetyCategory
powinien mieć maksymalnie 1 ustawienie. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory
określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting
dla danego elementu SafetyCategory
, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.
stopSequences[]
string
Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.
temperature
number
Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature
elementu Model
, który zwrócił funkcję getModel
.
Wartości mogą mieścić się w zakresie od [0,0,1,0] włącznie. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.
candidateCount
integer
Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.
Ta wartość musi mieścić się w zakresie od [1 do 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.
maxOutputTokens
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.
Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model
.
topP
number
Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p
elementu Model
, który zwrócił funkcję getModel
.
topK
integer
Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.
Model wykorzystuje połączone próbkowanie Top-K i jądra.
Próbkowanie Top-K uwzględnia zestaw topK
najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.
Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k
elementu Model
, który zwrócił funkcję getModel
.
Treść odpowiedzi
W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse
.
ContentFilter
Metadane filtrowania treści związane z przetwarzaniem pojedynczego żądania.
ContentFilter zawiera uzasadnienie oraz opcjonalny ciąg uzupełniający. Przyczyna może być nieokreślona.
reason
enum (BlockedReason
)
Powód zablokowania treści podczas przetwarzania żądania.
message
string
Ciąg znaków, który bardziej szczegółowo opisuje działanie filtrowania.
Zapis JSON |
---|
{
"reason": enum ( |
BlockedReason
Lista powodów, dla których treści mogły zostać zablokowane
Wartości w polu enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Nie podano przyczyny zablokowania. |
SAFETY |
Treść została zablokowana przez ustawienia bezpieczeństwa. |
OTHER |
Treść została zablokowana, ale nie podano żadnej kategorii. |
Umieszczanie
Lista liczb zmiennoprzecinkowych reprezentujących wektor dystrybucyjny.
value[]
number
Wartości wektora dystrybucyjnego.
Zapis JSON |
---|
{ "value": [ number ] } |
Wiadomość
Podstawowa jednostka tekstu uporządkowanego.
Element Message
obejmuje elementy author
i content
elementu Message
.
Element author
jest używany do tagowania wiadomości, jeśli są one przesyłane do modelu jako tekst.
author
string
Opcjonalnie: Autor tej wiadomości.
Służy jako klucz do tagowania treści tej wiadomości, gdy jest ona przekazywana do modelu jako tekst.
Autorem może być dowolny ciąg alfanumeryczny.
content
string
Wymagane. Zawartość tekstowa uporządkowanych danych Message
.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu content
w tym dokumencie: Message
.
Jeśli ten element Message
został wygenerowany jako dane wyjściowe modelu, to pole może zostać wypełnione informacjami o atrybucji dowolnego tekstu uwzględnionego w elemencie content
. To pole jest używane tylko w danych wyjściowych.
Zapis JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Cały ustrukturyzowany tekst wejściowy przekazywany do modelu jako prompt.
Element MessagePrompt
zawiera uporządkowany zestaw pól, które zapewniają kontekst dla rozmowy, przykłady par wiadomości wejściowych/wyjściowych użytkownika/modelu, które przygotowują model do udzielenia odpowiedzi w różny sposób, oraz historię lub listę wiadomości reprezentujących naprzemienne biegi rozmowy między użytkownikiem a modelem.
context
string
Opcjonalnie: Tekst, który należy najpierw przekazać modelowi, aby umocnić odpowiedź.
Jeśli pole nie jest puste, wartość context
zostanie przekazana modelowi jako pierwsza przed examples
i messages
. Jeśli używasz obiektu context
, pamiętaj, aby podawać go w każdym żądaniu, aby zachować ciągłość.
To pole może być opisem promptu dla modelu, aby zapewnić kontekst i nakierować odpowiedzi. Przykłady: „Przetłumacz wyrażenie z angielskiego na francuski”. lub „Określ, w jakim odczuciu sformułowano dane wyrażenie: szczęśliwe, smutne lub neutralne”.
Wszystko, co znajduje się w tym polu, będzie miało pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit
modelu, a żądanie wejściowe zostanie obcięte.
examples[]
object (Example
)
Opcjonalnie: Przykłady danych, które powinien wygenerować model.
Obejmuje to dane wejściowe użytkownika i odpowiedź, którą model powinien emulować.
Te examples
są traktowane tak samo jak wiadomości w wątkach, z tym że mają pierwszeństwo przed historią w messages
. Jeśli łączny rozmiar danych wejściowych przekracza wartość inputTokenLimit
modelu, dane wejściowe zostaną obcięte. Produkty zostaną usunięte z: messages
do examples
.
messages[]
object (Message
)
Wymagane. Podsumowanie najnowszej historii rozmów posortowane chronologicznie.
Przełącza się między 2 autorami.
Jeśli łączny rozmiar danych wejściowych przekracza wartość inputTokenLimit
modelu, dane wejściowe zostaną obcięte: najstarsze elementy zostaną usunięte z messages
.
Przykład
Przykład danych wejściowych/wyjściowych używanych do instruowania modelu.
Pokazuje, jak model powinien odpowiedzieć lub sformatować swoją odpowiedź.
input
object (Message
)
Wymagane. Przykład danych wejściowych Message
użytkownika.
output
object (Message
)
Wymagane. Przykład danych wyjściowych modelu z danymi wejściowymi.
GenerateTextResponse
Odpowiedź z modelu, w tym uzupełnienia kandydatów.
candidates[]
object (TextCompletion
)
Odpowiedzi kandydata z modelu.
filters[]
object (ContentFilter
)
Zbiór metadanych do filtrowania treści promptów i tekstu odpowiedzi.
Wskazuje, który element(SafetyCategory
) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability
, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii. To jest najmniejsza zmiana w elemencie SafetySettings
, która byłaby wymagana do odblokowania co najmniej 1 odpowiedzi.
Blokowanie jest konfigurowane przez interfejs SafetySettings
w żądaniu (lub domyślne ustawienie SafetySettings
interfejsu API).
safetyFeedback[]
object (SafetyFeedback
)
Zwraca wszystkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.
Zapis JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Tekst wyjściowy zwrócony z modelu.
output
string
Tylko dane wyjściowe. Tekst wygenerowany przez model.
safetyRatings[]
object (SafetyRating
)
Oceny pod kątem bezpieczeństwa odpowiedzi.
Każda kategoria może mieć maksymalnie 1 ocenę.
citationMetadata
object (CitationMetadata
)
Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu output
w tym dokumencie: TextCompletion
.
To pole może zostać wypełnione informacjami o pochodzeniu danych w przypadku dowolnego tekstu zawartego w dokumencie output
.
Zapis JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Opinia na temat bezpieczeństwa dla całego żądania.
To pole jest wypełniane, jeśli treść wejściowa lub odpowiedź jest zablokowana z powodu ustawień bezpieczeństwa. Funkcja SafetyOpinia może nie istnieć w przypadku każdej kategorii HarmCategory. Każda opinia o bezpieczeństwie zwraca ustawienia bezpieczeństwa użyte w żądaniu, a także najniższą prawdopodobieństwo zagrożenia, które powinno być dozwolone, aby zwrócić wynik.
rating
object (SafetyRating
)
Ocena bezpieczeństwa na podstawie treści.
setting
object (SafetySetting
)
Ustawienia bezpieczeństwa zostały zastosowane do żądania.
Zapis JSON |
---|
{ "rating": { object ( |