PaLM (decommissioned)

Metoda: models.generateText

Generuje odpowiedź modelu na podstawie wiadomości wejściowej.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parametry ścieżki

model string

Wymagane. Nazwa Model lub TunedModel, której należy użyć do wygenerowania zakończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst niesformatowany podany modelowi jako prompt.

Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą obowiązywać w przypadku znaczników GenerateTextRequest.promptGenerateTextResponse.candidates. W przypadku każdego typu SafetyCategory nie powinno być więcej niż 1 ustawienia. Interfejs API zablokuje wszystkie prompty i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting dla danego SafetyCategory, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.

stopSequences[] string

Zestaw sekwencji znaków (maksymalnie 5), który powoduje zatrzymanie generowania danych wyjściowych. Jeśli jest to określone, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature funkcji Model zwracanej przez funkcję getModel.

Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość zbliżona do 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość zbliżona do 0,0 spowoduje, że model będzie zwykle generować bardziej bezpośrednie odpowiedzi.

candidateCount integer

Opcjonalnie: Liczba generowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie jest ustawiona, przyjmuje domyślnie wartość 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest ustawiony, domyślnie zostanie użyta wartość outputTokenLimit określona w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Tokeny są sortowane według przypisanych im prawdopodobieństw, dzięki czemu uwzględniane są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, podczas gdy próbkowanie Nucleus ogranicza liczbę tokenów na podstawie skumulowanego prawdopodobieństwa.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model zwracanego przez funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k funkcji Model zwracanej przez funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

Metoda: models.countTextTokens

Wykonuje tokenizer modelu na tekście i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst niesformatowany podany modelowi jako prompt.

Treść odpowiedzi

Odpowiedź od models.countTextTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli dane prompt.

Zawsze dodatnia.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: models.generateMessage

Generuje odpowiedź modelu na podstawie wejścia MessagePrompt.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parametry ścieżki

model string

Wymagane. Nazwa modelu do użycia.

Format: name=models/{model}. Ma ona postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Uporządkowany tekst, który jest przekazywany jako dane wejściowe do modelu w formie promptu.

Na podstawie prompta model zwróci przewidywane następne wiadomość w dyskusji.

temperature number

Opcjonalnie: Określa losowość danych wyjściowych.

Wartości mogą mieścić się w zakresie [0.0,1.0] (obustronnie domkniętym). Wartość zbliżona do 1.0 spowoduje, że odpowiedzi będą bardziej zróżnicowane, a wartość zbliżona do 0.0 spowoduje, że model będzie generował mniej zaskakujących odpowiedzi.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedzią do zwrócenia.

Ta wartość musi mieścić się w przedziale od [1, 8] włącznie. Jeśli nie są ustawione, Google przyjmuje domyślnie 1.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Próbkowanie jądra uwzględnia najmniejszy zbiór tokenów, których suma prawdopodobieństw wynosi co najmniej topP.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów.

Treść odpowiedzi

odpowiedź modelu.

Obejmuje to wiadomości kandydatów i historię rozmów w formie wiadomości uporządkowanych chronologicznie.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
candidates[] object (Message)

Odpowiedzi kandydatów na podstawie modelu.

messages[] object (Message)

historia rozmowy używana przez model.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje, które SafetyCategory zablokowały kandydata w tej odpowiedzi, najniższą wartość HarmProbability, która spowodowała zablokowanie, oraz ustawienie HarmThreshold dla tej kategorii.

Zapis JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metoda: models.countMessageTokens

Wykonuje na ciągu tokenizację według modelu i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Jest to identyfikator modelu, którego chcesz użyć.

Nazwa ta powinna być zgodna z nazwą modelu zwróconą przez metodę models.list.

Format: models/{model}. Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Prompka, którego liczba tokenów ma zostać zwrócona.

Treść odpowiedzi

Odpowiedź od models.countMessageTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, na które model dzieli dane prompt.

Zawsze dodatnia.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: models.embedText

Generuje w ramach modelu zakodowanie słów na podstawie podanego komunikatu wejściowego.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parametry ścieżki

model string

Wymagane. Nazwa modelu w formacie model=models/{model}. Ma ona postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
text string

Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.

Treść odpowiedzi

Odpowiedź na żądanie embedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embedding object (Embedding)

Tylko dane wyjściowe. Obiekt embedding utworzony na podstawie tekstu wejściowego.

Zapis JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metoda: models.batchEmbedText

Generuje wiele wektorów wstępujących na podstawie modelu i tekstu wejściowego w wywołaniu synchronicznym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parametry ścieżki

model string

Wymagane. Nazwa Model, która ma służyć do wygenerowania wektora dystrybucyjnego. Przykłady: models/embedding-gecko-001. Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
texts[] string

Opcjonalnie: Teksty w dowolnej formie, które model przekształci w embedding. Obecny limit to 100 tekstów. Po przekroczeniu tej liczby zostanie wyświetlony komunikat o błędzie.

requests[] object (EmbedTextRequest)

Opcjonalnie: Prześlij prośby o przeniesienie zbiorcze. Można ustawić tylko jedną wartość texts lub requests.

Treść odpowiedzi

Odpowiedź na żądanie embedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embeddings[] object (Embedding)

Tylko dane wyjściowe. Wektory generowane na podstawie tekstu wejściowego.

Zapis JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Poproś o uzyskanie wektorów tekstowych z modelu.

Pola
model string

Wymagane. Nazwa modelu w formacie model=models/{model}.

text string

Opcjonalnie: Tekst niesformatowany, który model przekształci w embedding.

Zapis JSON
{
  "model": string,
  "text": string
}

Metoda: tunedModels.generateText

Generuje odpowiedź modelu na podstawie wiadomości wejściowej.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parametry ścieżki

model string

Wymagane. Nazwa Model lub TunedModel, której należy użyć do wygenerowania zakończenia. Przykłady: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ma on postać tunedModels/{tunedmodel}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Tekst niesformatowany podany modelowi jako prompt.

Po otrzymaniu prompta model wygeneruje odpowiedź tekstową, którą przewiduje jako uzupełnienie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą obowiązywać w przypadku znaczników GenerateTextRequest.promptGenerateTextResponse.candidates. W przypadku każdego typu SafetyCategory nie powinno być więcej niż 1 ustawienia. Interfejs API zablokuje wszystkie prompty i odpowiedzi, które nie spełniają wartości granicznych określonych przez te ustawienia. Ta lista zastępuje domyślne ustawienia każdego SafetyCategory określonego w safetySettings. Jeśli na liście nie ma podanego SafetySetting dla danego SafetyCategory, interfejs API użyje domyślnego ustawienia bezpieczeństwa dla tej kategorii. W usłudze tekstowej obsługiwane są kategorie szkodliwości HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL i HARM_CATEGORY_DANGEROUS.

stopSequences[] string

Zestaw sekwencji znaków (maksymalnie 5), który powoduje zatrzymanie generowania danych wyjściowych. Jeśli jest to określone, interfejs API zatrzyma się przy pierwszym wystąpieniu sekwencji zatrzymania. Sekwencja zatrzymania nie będzie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość danych wyjściowych. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature funkcji Model zwracanej przez funkcję getModel.

Wartości muszą mieścić się w zakresie [0,0,1,0]. Wartość zbliżona do 1,0 spowoduje, że odpowiedzi będą bardziej zróżnicowane i kreatywne, a wartość zbliżona do 0,0 spowoduje, że model będzie zwykle generować bardziej bezpośrednie odpowiedzi.

candidateCount integer

Opcjonalnie: Liczba generowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w przedziale [1, 8] włącznie. Jeśli nie jest ustawiona, przyjmuje domyślnie wartość 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest ustawiony, domyślnie zostanie użyta wartość outputTokenLimit określona w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Tokeny są sortowane według przypisanych im prawdopodobieństw, dzięki czemu uwzględniane są tylko najbardziej prawdopodobne tokeny. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, podczas gdy próbkowanie Nucleus ogranicza liczbę tokenów na podstawie skumulowanego prawdopodobieństwa.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model zwracanego przez funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje kombinację metody Top-k i próbkowania jądrowego.

Próbkowanie Top-K uwzględnia zbiór topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k funkcji Model zwracanej przez funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

ContentFilter

metadane filtrowania treści powiązane z przetwarzaniem pojedynczego żądania;

ContentFilter zawiera powód i opcjonalny ciąg tekstowy. Przyczyna może być nieokreślona.

Pola
reason enum (BlockedReason)

Powód zablokowania treści podczas przetwarzania żądania.

message string

Ciąg znaków opisujący szczegółowo sposób działania filtrowania.

Zapis JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Lista przyczyn, dla których treści mogły zostać zablokowane.

Wartości w polu enum
BLOCKED_REASON_UNSPECIFIED Nie podano powodu zablokowania.
SAFETY Treści zostały zablokowane przez ustawienia bezpieczeństwa.
OTHER Treści zostały zablokowane, ale powód nie został skategoryzowany.

Umieszczanie

Lista liczb zmiennoprzecinkowych reprezentujących zakotwiczoną wartość.

Pola
value[] number

wartości wstawiania.

Zapis JSON
{
  "value": [
    number
  ]
}

Wiadomość

Podstawowa jednostka uporządkowanego tekstu.

Element Message zawiera element author i content elementu Message.

Wartość author służy do oznaczania wiadomości, gdy są one przekazywane do modelu jako tekst.

Pola
author string

Opcjonalnie: Autor tej wiadomości.

Służy on jako klucz do oznaczania treści tej wiadomości, gdy jest ona przekazywana do modelu jako tekst.

Autor może być dowolnym ciągiem alfanumerycznym.

content string

Wymagane. Treść tekstowa uporządkowanego elementu Message.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu content wygenerowanego przez model w tym Message.

Jeśli ten element Message został wygenerowany jako dane wyjściowe modelu, to pole może zawierać informacje o atrybucji dotyczące tekstu zawartego w elementach content. To pole jest używane tylko w wyjściu.

Zapis JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

cały uporządkowany tekst wejściowy przekazany modelowi jako prompt;

MessagePrompt zawiera uporządkowany zestaw pól, które stanowią kontekst rozmowy, przykłady par wiadomości danych wejściowych użytkownika i wyjściowych modelu, które przygotowują model do odpowiadania na różne sposoby, oraz historię rozmowy lub listę wiadomości, które odzwierciedlają naprzemienne kolejki w rozmowie między użytkownikiem a modelem.

Pola
context string

Opcjonalnie: Tekst, który należy najpierw podać modelowi, aby ugruntować odpowiedź.

Jeśli nie jest pusty, model otrzyma najpierw ten parametr context, a dopiero potem examplesmessages. Aby zachować ciągłość, pamiętaj, aby podawać go przy każdym żądaniu.context

To pole może zawierać opis prompta dla modelu, który pomoże w ustanowieniu kontekstu i określeniu odpowiedzi. Przykłady: „Przetłumacz wyrażenie z języka angielskiego na francuski” lub „Dane stwierdzenie zaklasyfikuj jako radosne, smutne lub neutralne”.

Jeśli łączny rozmiar danych wejściowych przekroczy wartość parametru inputTokenLimit modelu, a żądanie wejściowe zostanie obcięte, wszystko, co jest zawarte w tym polu, będzie miało pierwszeństwo przed historią wiadomości.

examples[] object (Example)

Opcjonalnie: przykłady tego, co model powinien generować;

Obejmuje to zarówno dane wejściowe użytkownika, jak i odpowiedź, którą model powinien naśladować.

Te examples są traktowane tak samo jak wiadomości w rozmowie, z tą różnicą, że mają pierwszeństwo przed historią w messages: jeśli łączny rozmiar danych wejściowych przekroczy wartość inputTokenLimit modelu, dane wejściowe zostaną obcięte. Elementy zostaną usunięte z tabeli messages przed examples.

messages[] object (Message)

Wymagane. Zrzut z historią ostatnich rozmów posortowany chronologicznie.

Przełączanie się między 2 autorami.

Jeśli łączny rozmiar danych wejściowych przekracza wartość parametru inputTokenLimit modelu, dane wejściowe zostaną obcięte: z parametru messages zostaną usunięte najstarsze elementy.

Zapis JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Przykład

Przykład danych wejściowych/wyjściowych używany do instruktażowego trenowania modelu.

Pokazuje, jak model powinien odpowiadać lub formatować odpowiedzi.

Pola
input object (Message)

Wymagane. Przykład danych wejściowych Message od użytkownika.

output object (Message)

Wymagane. Przykład danych wyjściowych modelu dla podanych danych wejściowych.

Zapis JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

odpowiedź modelu, w tym kandydatów na kandydatów;

Pola
candidates[] object (TextCompletion)

Odpowiedzi kandydatów na podstawie modelu.

filters[] object (ContentFilter)

Zestaw metadanych filtrowania treści dla promptu i tekstu odpowiedzi.

Wskazuje, które SafetyCategory zablokowały kandydata w tej odpowiedzi, najniższą wartość HarmProbability, która spowodowała zablokowanie, oraz ustawienie HarmThreshold dla tej kategorii. Ta wartość wskazuje najmniejszą zmianę w wartości SafetySettings, która umożliwi odblokowanie co najmniej 1 odpowiedzi.

Blokowanie jest konfigurowane przez SafetySettings w żądaniu (lub domyślny SafetySettings interfejsu API).

safetyFeedback[] object (SafetyFeedback)

Zwraca wszelkie informacje dotyczące bezpieczeństwa związane z filtrowaniem treści.

Zapis JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Tekst wyjściowy zwrócony przez model.

Pola
output string

Tylko dane wyjściowe. Wygenerowany tekst zwrócony przez model.

safetyRatings[] object (SafetyRating)

Oceny bezpieczeństwa odpowiedzi.

W każdej kategorii może być maksymalnie 1 ocena.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje o cytowaniu output wygenerowanego przez model w tym TextCompletion.

To pole może zawierać informacje o przypisaniu dotyczące dowolnego tekstu zawartego w elementach output.

Zapis JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

opinia dotycząca bezpieczeństwa dotycząca całego zgłoszenia;

To pole jest wypełniane, jeśli treści w danych wejściowych lub odpowiedzi są zablokowane z powodu ustawień bezpieczeństwa. Informacje zwrotne dotyczące bezpieczeństwa mogą nie być dostępne w przypadku niektórych kategorii szkodliwości. Każda odpowiedź z SafetyFeedback zwróci ustawienia bezpieczeństwa używane przez żądanie, a także najniższą wartość prawdopodobieństwa wyrządzenia szkody, która powinna być dozwolona, aby zwrócić wynik.

Pola
rating object (SafetyRating)

Ocena bezpieczeństwa oceniona na podstawie treści.

setting object (SafetySetting)

ustawienia bezpieczeństwa zastosowane w prośbie;

Zapis JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Tekst przekazany modelowi jako prompt.

Model użyje tego promptu tekstowego do wygenerowania uzupełnienia tekstu.

Pola
text string

Wymagane. Tekst promptu.

Zapis JSON
{
  "text": string
}