PaLM (decommissioned)

Metoda: models.generateText

Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parametry ścieżki

model string

Wymagane. Nazwa elementu Model lub TunedModel, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.

Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą egzekwowane w GenerateTextRequest.prompt i GenerateTextResponse.candidates. W przypadku każdego typu SafetyCategory nie powinno być więcej niż 1 ustawienia. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting dla danego elementu SafetyCategory, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.

stopSequences[] string

Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature elementu Model, który zwrócił funkcję getModel.

Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i nukleusów.

Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model, który zwrócił funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model korzysta z połączonego losowania Top-k i jądra.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k elementu Model, który zwrócił funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

Metoda: Modele.countTextTokens

Uruchamia tokenizację modelu w tekście i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst niesformatowany podany modelowi jako prompt.

Treść odpowiedzi

Odpowiedź z models.countTextTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli prompt.

Zawsze dodatnia.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: Modele.generateMessage

Generuje odpowiedź na podstawie modelu z danymi wejściowymi MessagePrompt.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parametry ścieżki

model string

Wymagane. Nazwa modelu do użycia.

Format: name=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Uporządkowany tekst wpisywany do modelu jako prompt.

Po otrzymaniu promptu model zwróci prognozę i następną wiadomość w rozmowie.

temperature number

Opcjonalnie: Określa losowość wyników.

Wartości mogą się mieścić w przedziale powyżej [0.0,1.0]. Wartość zbliżona do 1.0 spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0 spowoduje, że odpowiedzi będą mniej zaskakujące.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.

Ta wartość musi mieścić się w przedziale od [1, 8]. Jeśli nie są ustawione, domyślna wartość to 1.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i nukleusów.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model korzysta z połączonego losowania Top-k i jądra.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów.

Treść odpowiedzi

odpowiedź modelu.

Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości w porządku chronologicznym.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
candidates[] object (Message)

Odpowiedzi kandydatów na podstawie modelu.

messages[] object (Message)

historia rozmowy używana przez model.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje, który element(SafetyCategory) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii.

Zapis JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metoda: Modele.countMessageTokens

Uruchamia tokenizację modelu w ciągu znaków i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Prompka, dla którego ma zostać zwrócona liczba tokenów.

Treść odpowiedzi

Odpowiedź od użytkownika models.countMessageTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli prompt.

Zawsze dodatnia.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: Modele.embedText

Generuje wstępną reprezentację z modelu na podstawie wiadomości wejściowej.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parametry ścieżki

model string

Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Fields
text string

Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.

Treść odpowiedzi

Odpowiedź na żądanie EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embedding object (Embedding)

Tylko dane wyjściowe. Obiekt embedding utworzony na podstawie tekstu wejściowego.

Zapis JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metoda: Modele.batchEmbedText

Generuje w wywołaniu synchronicznym wiele zasobów danych z modelu na podstawie tekstu wejściowego.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parametry ścieżki

model string

Wymagane. Nazwa obiektu Model, który ma być używany do generowania wektora dystrybucyjnego. Przykłady: models/embedding-gecko-001 ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
texts[] string

Opcjonalnie: Teksty wejściowe w dowolnej formie, które model przekształci w embedding. Obecny limit to 100 tekstów, powyżej których zostanie zgłoszony błąd.

requests[] object (EmbedTextRequest)

Opcjonalnie: umieszczać prośby w zbiorze. Można ustawić tylko jedną z tych wartości: texts lub requests.

Treść odpowiedzi

Odpowiedź na żądanie EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embeddings[] object (Embedding)

Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane z tekstu wejściowego.

Zapis JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Prześlij żądanie uzyskania wektorów tekstowych z modelu.

.
Pola
model string

Wymagane. Nazwa modelu w formacie model=models/{model}.

text string

Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.

Zapis JSON
{
  "model": string,
  "text": string
}

Metoda: tunelModels.generateText

Generuje odpowiedź modelu na podstawie przesłanej wiadomości.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parametry ścieżki

model string

Wymagane. Nazwa elementu Model lub TunedModel, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać tunedModels/{tunedmodel}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.

Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą egzekwowane w GenerateTextRequest.prompt i GenerateTextResponse.candidates. W przypadku każdego typu SafetyCategory nie powinno być więcej niż 1 ustawienia. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting dla danego elementu SafetyCategory, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.

stopSequences[] string

Zbiór sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature elementu Model, który zwrócił funkcję getModel.

Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest skonfigurowana, domyślnie przyjmuje się wartośćoutputTokenLimit określony w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i nukleusów.

Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model, który zwrócił funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model korzysta z połączonego losowania Top-k i jądra.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k elementu Model, który zwrócił funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

ContentFilter

metadane filtrowania treści powiązane z przetworzeniem pojedynczego żądania.

ContentFilter zawiera uzasadnienie oraz opcjonalny dodatkowy ciąg znaków. Przyczyna może być nieokreślona.

Pola
reason enum (BlockedReason)

Powód zablokowania treści podczas przetwarzania żądania.

message string

Ciąg znaków, który bardziej szczegółowo opisuje działanie filtrowania.

Zapis JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Lista powodów, dla których treści mogły zostać zablokowane

Wartości w polu enum
BLOCKED_REASON_UNSPECIFIED Nie podano powodu zablokowania.
SAFETY Treść została zablokowana przez ustawienia bezpieczeństwa.
OTHER Treści zostały zablokowane, ale powód nie został skategoryzowany.

Umieszczanie

Lista liczb zmiennoprzecinkowych reprezentujących zakotwiczoną wartość.

Pola
value[] number

Wartości wstawiania.

Zapis JSON
{
  "value": [
    number
  ]
}

Wiadomość

Podstawowa jednostka tekstu uporządkowanego.

Element Message obejmuje elementy author i content elementu Message.

Element author jest używany do tagowania wiadomości, jeśli są one przesyłane do modelu jako tekst.

Pola
author string

Opcjonalnie: Autor tej wiadomości.

Służy on jako klucz do oznaczania treści tej wiadomości, gdy jest ona podawana modelowi jako tekst.

Autorem może być dowolny ciąg alfanumeryczny.

content string

Wymagane. Treść tekstowa uporządkowanego elementu Message.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu content wygenerowanego przez model w tym Message.

Jeśli ten Message został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w content. To pole jest używane tylko w wyjściu.

Zapis JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Cały ustrukturyzowany tekst wejściowy przekazywany do modelu jako prompt.

MessagePrompt zawiera uporządkowany zestaw pól, które stanowią kontekst rozmowy, przykłady par wiadomości danych wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości, które odzwierciedlają naprzemienne kolejki rozmów między użytkownikiem a modelem.

Pola
context string

Opcjonalnie: Tekst, który należy najpierw podać modelowi, aby uzyskać odpowiedź.

Jeśli nie jest pusty, model otrzyma najpierw ten parametr context, a dopiero potem examplesmessages. Aby zachować ciągłość, pamiętaj, aby podawać go przy każdym żądaniu.

To pole może być opisem promptu dla modelu, aby zapewnić kontekst i nakierować odpowiedzi. Przykłady: „Przetłumacz wyrażenie z angielskiego na francuski”. lub „Określ, w jakim odczuciu sformułowano dane wyrażenie: szczęśliwe, smutne lub neutralne”.

Wszystko, co znajduje się w tym polu, będzie miało pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit modelu, a żądanie wejściowe zostanie obcięte.

examples[] object (Example)

Opcjonalnie: Przykłady danych, które powinien wygenerować model.

Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.

Te examples są traktowane tak samo jak wiadomości w rozmowie, z tą różnicą, że mają pierwszeństwo przed historią w messages: jeśli łączny rozmiar danych wejściowych przekroczy inputTokenLimit modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z tabeli messages przed examples.

messages[] object (Message)

Wymagane. Zrzut z historią ostatnich rozmów posortowany chronologicznie.

Przełącza się między 2 autorami.

Jeśli łączny rozmiar danych wejściowych przekracza wartość parametru inputTokenLimit modelu, dane wejściowe zostaną obcięte: z parametru messages zostaną usunięte najstarsze elementy.

Zapis JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Przykład

Przykład danych wejściowych/wyjściowych używany do instruktażowego trenowania modelu.

Pokazuje, jak model powinien odpowiadać lub formatować odpowiedzi.

Pola
input object (Message)

Wymagane. Przykład danych wejściowych Message użytkownika.

output object (Message)

Wymagane. Przykład danych wyjściowych modelu z danymi wejściowymi.

Zapis JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

Odpowiedź z modelu, w tym uzupełnienia kandydatów.

.
Pola
candidates[] object (TextCompletion)

Odpowiedzi kandydata z modelu.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje, który element(SafetyCategory) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii. Wskazuje najmniejszą zmianę w wartości SafetySettings, która umożliwi odblokowanie co najmniej 1 odpowiedzi.

Blokowanie jest konfigurowane przez interfejs SafetySettings w żądaniu (lub domyślne SafetySettings interfejsu API).

safetyFeedback[] object (SafetyFeedback)

Zwraca wszystkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.

Zapis JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Tekst wyjściowy zwrócony z modelu.

Pola
output string

Tylko dane wyjściowe. Tekst wygenerowany przez model.

safetyRatings[] object (SafetyRating)

Oceny bezpieczeństwa odpowiedzi.

W każdej kategorii może być maksymalnie 1 ocena.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu output w tym dokumencie: TextCompletion.

To pole może zostać wypełnione informacjami o pochodzeniu danych w przypadku dowolnego tekstu zawartego w dokumencie output.

Zapis JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Opinia na temat bezpieczeństwa dla całego żądania.

To pole jest wypełniane, jeśli treść wejściowa lub odpowiedź jest zablokowana z powodu ustawień bezpieczeństwa. Informacje zwrotne dotyczące bezpieczeństwa mogą nie być dostępne w przypadku niektórych kategorii szkodliwości. Każda odpowiedź z SafetyFeedback zwróci ustawienia bezpieczeństwa używane przez żądanie, a także najniższą wartość prawdopodobieństwa wyrządzenia szkody, która powinna być dozwolona, aby zwrócić wynik.

.
Pola
rating object (SafetyRating)

Ocena bezpieczeństwa oceniona na podstawie treści.

setting object (SafetySetting)

Ustawienia bezpieczeństwa zostały zastosowane do żądania.

Zapis JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Tekst przekazany modelowi jako prompt.

Model użyje tego promptu tekstowego do wygenerowania uzupełnienia tekstu.

Pola
text string

Wymagane. Tekst promptu.

Zapis JSON
{
  "text": string
}