PaLM (deprecated)

Metoda: Modele.generateText

Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
.

Parametry ścieżki

model string

Wymagane. Nazwa elementu Model lub TunedModel, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.

Po otrzymaniu promptu model wygeneruje odpowiedź TextComplete, która prognozuje jako dokończenie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą egzekwowane w GenerateTextRequest.prompt i GenerateTextResponse.candidates. Każdy typ SafetyCategory powinien mieć maksymalnie 1 ustawienie. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting dla danego elementu SafetyCategory, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.

stopSequences[] string

Zestaw sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature elementu Model, który zwrócił funkcję getModel.

Wartości mogą mieścić się w zakresie od [0,0,1,0] włącznie. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w zakresie od [1 do 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest ustawiona, domyślnie ustawiona jest wartośćoutputTokenLimit określony w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model, który zwrócił funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k elementu Model, który zwrócił funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

Metoda: Modele.countTextTokens

Uruchamia tokenizację modelu w tekście i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
.

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator, którego model ma używać.

Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list.

Format: models/{model} Przyjmuje postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.

Treść odpowiedzi

Odpowiedź od użytkownika models.countTextTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, do których model tokenizuje token prompt.

Zawsze nieujemna.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: Modele.generateMessage

Generuje odpowiedź na podstawie modelu z danymi wejściowymi MessagePrompt.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
.

Parametry ścieżki

model string

Wymagane. Nazwa modelu, którego chcesz użyć.

Format: name=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Uporządkowane dane wejściowe przekazywane modelowi jako prompt.

Po otrzymaniu promptu model zwróci prognozę i następną wiadomość w rozmowie.

temperature number

Opcjonalnie: Określa losowość wyników.

Wartości mogą się mieścić w przedziale powyżej [0.0,1.0]. Wartość bliższa 1.0 daje bardziej zróżnicowane odpowiedzi, a wartość bliższa 0.0 daje zwykle mniej zaskakujących odpowiedzi z modelu.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych wiadomości z odpowiedziami do zwrócenia.

Ta wartość musi mieścić się w przedziale od [1, 8]. Jeśli nie są ustawione, domyślna wartość to 1.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Próbkowanie nucleusa uwzględnia najmniejszy zestaw tokenów, którego suma prawdopodobieństwa wynosi co najmniej topP.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów.

Treść odpowiedzi

Odpowiedź z modelu.

Obejmuje to wiadomości z propozycjami i historię rozmów w postaci wiadomości w porządku chronologicznym.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
candidates[] object (Message)

Komunikaty z odpowiedziami dla kandydatów z modelu.

messages[] object (Message)

Historia rozmów używana przez model.

filters[] object (ContentFilter)

Zbiór metadanych do filtrowania treści promptów i tekstu odpowiedzi.

Wskazuje, który element(SafetyCategory) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability, która spowodowała zablokowanie, oraz ustawienie Próg zagrożenia dla danej kategorii.

Zapis JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metoda: Modele.countMessageTokens

Uruchamia tokenizację modelu w ciągu znaków i zwraca liczbę tokenów.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
.

Parametry ścieżki

model string

Wymagane. Nazwa zasobu modelu. Służy on jako identyfikator, którego model ma używać.

Ta nazwa powinna być zgodna z nazwą modelu zwracaną przez metodę models.list.

Format: models/{model} Przyjmuje postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (MessagePrompt)

Wymagane. Prompt, którego liczba tokenów ma zostać zwrócona.

Treść odpowiedzi

Odpowiedź od użytkownika models.countMessageTokens.

Zwraca tokenCount modelu dla prompt.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
tokenCount integer

Liczba tokenów, do których model tokenizuje token prompt.

Zawsze nieujemna.

Zapis JSON
{
  "tokenCount": integer
}

Metoda: Modele.embedText

Generuje wektor dystrybucyjny z modelu z podanym komunikatem wejściowym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
.

Parametry ścieżki

model string

Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}. Ma on postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
text string

Opcjonalnie: Swobodny tekst wejściowy, który model zostanie przekształcony w wektor dystrybucyjny.

Treść odpowiedzi

Odpowiedź na żądanie EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embedding object (Embedding)

Tylko dane wyjściowe. Wektor dystrybucyjny wygenerowany na podstawie tekstu wejściowego.

Zapis JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metoda: Modele.batchEmbedText

Generuje wiele wektorów dystrybucyjnych z modelu podanego tekstu wejściowego w wywołaniu synchronicznym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
.

Parametry ścieżki

model string

Wymagane. Nazwa obiektu Model, który ma być używany do generowania wektora dystrybucyjnego. Przykłady: model/embedding-gecko-001 Przyjmuje postać models/{model}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
texts[] string

Opcjonalnie: Swobodne teksty wejściowe, które model przekształci w wektor dystrybucyjny. Obecny limit to 100 tekstów, powyżej których zostanie zgłoszony błąd.

requests[] object (EmbedTextRequest)

Opcjonalnie: Prośby o umieszczenie wsadu. Można ustawić tylko jedną z tych wartości: texts lub requests.

Treść odpowiedzi

Odpowiedź na żądanie EmbedTextRequest.

W przypadku powodzenia treść żądania zawiera dane o następującej strukturze:

Pola
embeddings[] object (Embedding)

Tylko dane wyjściowe. Wektory dystrybucyjne wygenerowane z tekstu wejściowego.

Zapis JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Żądanie pobrania osadzonego tekstu z modelu.

Zapis JSON
{
  "model": string,
  "text": string
}
Pola
model string

Wymagane. Nazwa modelu, która ma być używana z formatem model=models/{model}.

text string

Opcjonalnie: Swobodny tekst wejściowy, który model zostanie przekształcony w wektor dystrybucyjny.

Metoda: tuneModels.generateText

Generuje odpowiedź na podstawie modelu z podanym komunikatem wejściowym.

Punkt końcowy

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
.

Parametry ścieżki

model string

Wymagane. Nazwa elementu Model lub TunedModel, która ma być wykorzystywana do wygenerowania ukończenia. Przykłady: model/text-bison-001 dostrojoneModele/sentence-translator-u3b7m Ma postać tunedModels/{tunedmodel}.

Treść żądania

Treść żądania zawiera dane o następującej strukturze:

Pola
prompt object (TextPrompt)

Wymagane. Swobodny tekst wejściowy podany modelowi jako prompt.

Po otrzymaniu promptu model wygeneruje odpowiedź TextComplete, która prognozuje jako dokończenie tekstu wejściowego.

safetySettings[] object (SafetySetting)

Opcjonalnie: Lista unikalnych instancji SafetySetting do blokowania niebezpiecznych treści.

które będą egzekwowane w GenerateTextRequest.prompt i GenerateTextResponse.candidates. Każdy typ SafetyCategory powinien mieć maksymalnie 1 ustawienie. Interfejs API blokuje wszystkie prompty i odpowiedzi, które nie osiągną progów ustawionych przez te ustawienia. Ta lista zastępuje domyślne ustawienia dla każdego elementu SafetyCategory określonego w ustawieniach bezpieczeństwa. Jeśli na liście nie ma atrybutu SafetySetting dla danego elementu SafetyCategory, interfejs API użyje dla tej kategorii domyślnego ustawienia bezpieczeństwa. Kategorie szkodliwego działania: HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDical, HARM_CATEGORY_DANGEROUS są obsługiwane w usłudze tekstowej.

stopSequences[] string

Zestaw sekwencji znaków (maksymalnie 5), które zatrzymują generowanie danych wyjściowych. Jeśli zostanie określony, interfejs API zostanie zatrzymany po pierwszym pojawieniu się sekwencji zatrzymania. Sekwencja zatrzymania nie zostanie uwzględniona w odpowiedzi.

temperature number

Opcjonalnie: Określa losowość wyników. Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.temperature elementu Model, który zwrócił funkcję getModel.

Wartości mogą mieścić się w zakresie od [0,0,1,0] włącznie. Wartość bliższa 1,0 daje odpowiedzi, które są bardziej zróżnicowane i kreatywne, a wartość bliższa 0,0 zapewnia zwykle bardziej przejrzyste odpowiedzi z modelu.

candidateCount integer

Opcjonalnie: Liczba wygenerowanych odpowiedzi do zwrócenia.

Ta wartość musi mieścić się w zakresie od [1 do 8] włącznie. Jeśli nie są ustawione, domyślna wartość to 1.

maxOutputTokens integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia w kandydacie.

Jeśli nie jest ustawiona, domyślnie ustawiona jest wartośćoutputTokenLimit określony w specyfikacji Model.

topP number

Opcjonalnie: Maksymalne skumulowane prawdopodobieństwo tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Tokeny są sortowane na podstawie przypisanych prawdopodobieństw, dzięki czemu brane są pod uwagę tylko te z największym prawdopodobieństwem. Próbkowanie Top-K bezpośrednio ogranicza maksymalną liczbę tokenów do rozważenia, natomiast próbkowanie Nucleusa ogranicza liczbę tokenów na podstawie prawdopodobieństwa skumulowanego.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_p elementu Model, który zwrócił funkcję getModel.

topK integer

Opcjonalnie: Maksymalna liczba tokenów do uwzględnienia podczas próbkowania.

Model wykorzystuje połączone próbkowanie Top-K i jądra.

Próbkowanie Top-K uwzględnia zestaw topK najbardziej prawdopodobnych tokenów. Domyślna wartość to 40.

Uwaga: wartość domyślna różni się w zależności od modelu. Zobacz atrybut Model.top_k elementu Model, który zwrócił funkcję getModel.

Treść odpowiedzi

W przypadku powodzenia treść odpowiedzi obejmuje wystąpienie elementu GenerateTextResponse.

ContentFilter

Metadane filtrowania treści związane z przetwarzaniem pojedynczego żądania.

ContentFilter zawiera uzasadnienie oraz opcjonalny ciąg uzupełniający. Przyczyna może być nieokreślona.

Zapis JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
Pola
reason enum (BlockedReason)

Powód zablokowania treści podczas przetwarzania żądania.

message string

Ciąg znaków, który bardziej szczegółowo opisuje działanie filtrowania.

BlockedReason

Lista powodów, dla których treści mogły zostać zablokowane

Wartości w polu enum
BLOCKED_REASON_UNSPECIFIED Nie podano przyczyny zablokowania.
SAFETY Treść została zablokowana przez ustawienia bezpieczeństwa.
OTHER Treść została zablokowana, ale nie podano żadnej kategorii.

Umieszczanie

Lista liczb zmiennoprzecinkowych reprezentujących wektor dystrybucyjny.

Zapis JSON
{
  "value": [
    number
  ]
}
Pola
value[] number

Wartości wektora dystrybucyjnego.

Wiadomość

Podstawowa jednostka tekstu uporządkowanego.

Element Message obejmuje elementy author i content elementu Message.

Element author jest używany do oznaczania wiadomości, gdy są one przesyłane do modelu jako tekst.

Zapis JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Pola
author string

Opcjonalnie: Autor tej wiadomości.

Służy jako klucz do tagowania treści tej wiadomości, gdy jest ona przekazywana do modelu jako tekst.

Autorem może być dowolny ciąg alfanumeryczny.

content string

Wymagane. Zawartość tekstowa uporządkowanych danych Message.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu content w tym dokumencie: Message.

Jeśli ten element Message został wygenerowany jako dane wyjściowe modelu, to pole może zostać wypełnione informacjami o atrybucji dowolnego tekstu uwzględnionego w elemencie content. To pole jest używane tylko w danych wyjściowych.

MessagePrompt

Cały ustrukturyzowany tekst wejściowy przekazywany do modelu jako prompt.

Element MessagePrompt zawiera uporządkowany zestaw pól, które zapewniają kontekst dla rozmowy, przykłady par wiadomości wejściowych/wyjściowych użytkownika/modelu, które przygotowują model do udzielenia odpowiedzi na różne sposoby, oraz historię lub listę wiadomości reprezentujących naprzemienne biegi rozmowy między użytkownikiem a modelem.

Zapis JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Pola
context string

Opcjonalnie: Tekst, który należy najpierw przekazać do modelu, aby umocować odpowiedź.

Jeśli pole nie jest puste, wartość context zostanie przekazana modelowi jako pierwsza przed examples i messages. Jeśli używasz obiektu context, pamiętaj, aby podawać go w każdym żądaniu, aby zachować ciągłość.

To pole może być opisem promptu dla modelu, aby zapewnić kontekst i nakierować odpowiedzi. Przykłady: „Przetłumacz wyrażenie z angielskiego na francuski”. lub „Określ, w jakim odczuciu sformułowano dane wyrażenie: szczęśliwe, smutne lub neutralne”.

Wszystkie elementy zawarte w tym polu będą miały pierwszeństwo przed historią wiadomości, jeśli łączny rozmiar danych wejściowych przekracza inputTokenLimit modelu, a żądanie wejściowe zostanie obcięte.

examples[] object (Example)

Opcjonalnie: Przykłady danych, które powinien wygenerować model.

Obejmuje to dane wejściowe użytkownika i odpowiedź, którą model powinien emulować.

Te examples są traktowane tak samo jak wiadomości w wątkach, z tym że mają pierwszeństwo przed historią w messages. Jeśli łączny rozmiar danych wejściowych przekracza wartość inputTokenLimit modelu, dane wejściowe zostaną obcięte. Produkty zostaną usunięte z: messages do examples.

messages[] object (Message)

Wymagane. Podsumowanie najnowszej historii rozmów posortowane chronologicznie.

Przełącza się między 2 autorami.

Jeśli łączny rozmiar danych wejściowych przekracza wartość inputTokenLimit modelu, dane wejściowe zostaną obcięte: najstarsze elementy zostaną usunięte z messages.

Przykład

Przykład danych wejściowych/wyjściowych używanych do instruowania modelu.

Pokazuje, jak model powinien odpowiedzieć lub sformatować swoją odpowiedź.

Zapis JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Pola
input object (Message)

Wymagane. Przykład danych wejściowych Message użytkownika.

output object (Message)

Wymagane. Przykład danych wyjściowych modelu z danymi wejściowymi.

GenerateTextResponse

Odpowiedź z modelu, w tym uzupełnienia kandydatów.

Zapis JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Pola
candidates[] object (TextCompletion)

Odpowiedzi kandydata z modelu.

filters[] object (ContentFilter)

Zbiór metadanych do filtrowania treści promptów i tekstu odpowiedzi.

Wskazuje, który element(SafetyCategory) zablokował kandydatowi tę odpowiedź, najniższą wartość HarmProbability, która spowodowała uruchomienie blokady, oraz ustawienie Próg zagrożenia dla danej kategorii. To jest najmniejsza zmiana w elemencie SafetySettings, która byłaby wymagana do odblokowania co najmniej 1 odpowiedzi.

Blokowanie jest konfigurowane przez interfejs SafetySettings w żądaniu (lub domyślne ustawienie SafetySettings interfejsu API).

safetyFeedback[] object (SafetyFeedback)

Zwraca wszystkie opinie dotyczące bezpieczeństwa związane z filtrowaniem treści.

TextCompletion

Tekst wyjściowy zwrócony z modelu.

Zapis JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Pola
output string

Tylko dane wyjściowe. Tekst wygenerowany przez model.

safetyRatings[] object (SafetyRating)

Oceny pod kątem bezpieczeństwa odpowiedzi.

Każda kategoria może mieć maksymalnie 1 ocenę.

citationMetadata object (CitationMetadata)

Tylko dane wyjściowe. Informacje cytowania dla wygenerowanego przez model elementu output w tym dokumencie: TextCompletion.

To pole może być wypełnione informacjami o pochodzeniu danych w przypadku dowolnego tekstu zawartego w dokumencie output.

SafetyFeedback

Opinia na temat bezpieczeństwa dla całego żądania.

To pole jest wypełniane, jeśli treść wejściowa lub odpowiedź jest zablokowana z powodu ustawień bezpieczeństwa. Funkcja SafetyFeedback może nie istnieć w przypadku każdej kategorii HarmCategory. Każda opinia o bezpieczeństwie zwraca ustawienia bezpieczeństwa użyte w żądaniu, a także najniższą prawdopodobieństwo zagrożenia, które powinno być dozwolone, aby zwrócić wynik.

Zapis JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Pola
rating object (SafetyRating)

Ocena bezpieczeństwa na podstawie treści.

setting object (SafetySetting)

Ustawienia bezpieczeństwa zostały zastosowane do żądania.

TextPrompt

Tekst przekazany modelowi jako prompt.

Model użyje tego promptu tekstowego, aby wygenerować uzupełnienie tekstu.

Zapis JSON
{
  "text": string
}
Pola
text string

Wymagane. Tekst promptu.