Method: models.generateText

Genera una risposta dal modello a cui è stato assegnato un messaggio di input.

Richiesta HTTP

POST https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

Parametri
model

string

Obbligatorio. Il nome di Model o TunedModel da utilizzare per generare il completamento. Esempi: model/text-bison-001 TuneModels/sentence-translator-u3b7m

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Rappresentazione JSON
{
  "prompt": {
    object (TextPrompt)
  },
  "safetySettings": [
    {
      object (SafetySetting)
    }
  ],
  "stopSequences": [
    string
  ],
  "temperature": number,
  "candidateCount": integer,
  "maxOutputTokens": integer,
  "topP": number,
  "topK": integer
}
Campi
prompt

object (TextPrompt)

Obbligatorio. Il testo di input in formato libero assegnato al modello come prompt.

Dato un prompt, il modello genererà una risposta TextComplete che prevede come completamento del testo di input.

safetySettings[]

object (SafetySetting)

Campo facoltativo. Un elenco di istanze SafetySetting univoche per bloccare contenuti non sicuri.

che verrà applicato a GenerateTextRequest.prompt e GenerateTextResponse.candidates. Per ogni tipo di SafetyCategory non deve essere presente più di un'impostazione. L'API bloccherà tutti i prompt e le risposte che non soddisfano le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory specificato nelle impostazioni di sicurezza. Se nell'elenco non è presente SafetySetting per un determinato SafetyCategory, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Le categorie di danni HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL e HARM_CATEGORY_DANGEROUS sono supportate nel servizio di testo.

stopSequences[]

string

Il set di sequenze di caratteri (fino a 5) che interromperà la generazione di output. Se specificato, l'API si arresterà alla prima comparsa di una sequenza di interruzioni. La sequenza di interruzioni non sarà inclusa nella risposta.

temperature

number

Campo facoltativo. Controlla la casualità dell'output. Nota: il valore predefinito varia in base al modello. Controlla l'attributo Model.temperature di Model che ha restituito la funzione getModel.

I valori possono essere compresi tra [0,0 e 1,0] inclusi. Un valore più vicino a 1,0 produrrà risposte più diverse e creative, mentre un valore più vicino a 0,0 genererà in genere risposte più dirette da parte del modello.

candidateCount

integer

Campo facoltativo. Numero di risposte generate da restituire.

Questo valore deve essere compreso tra [1, 8] inclusi. Se non viene configurato, il valore predefinito è 1.

maxOutputTokens

integer

Campo facoltativo. Il numero massimo di token da includere in un candidato.

Se il criterio non viene configurato, verrà utilizzato il valore predefinito outputTokenLimit specificato nella specifica Model.

topP

number

Campo facoltativo. La probabilità cumulativa massima di token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato di Top-k e nucleo.

I token vengono ordinati in base alle probabilità che sono state assegnate in modo da prendere in considerazione solo quelli con maggiore probabilità. Il campionamento Top-K limita direttamente il numero massimo di token da considerare, mentre il campionamento del nucleo limita il numero di token in base alla probabilità cumulativa.

Nota: il valore predefinito varia in base al modello. Controlla l'attributo Model.top_p di Model che ha restituito la funzione getModel.

topK

integer

Campo facoltativo. Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato di Top-k e nucleo.

Il campionamento Top-K considera l'insieme di topK token più probabili. Il valore predefinito è 40.

Nota: il valore predefinito varia in base al modello. Controlla l'attributo Model.top_k di Model che ha restituito la funzione getModel.

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/generative-language
  • https://www.googleapis.com/auth/generative-language.tuning
  • https://www.googleapis.com/auth/generative-language.tuning.readonly
  • https://www.googleapis.com/auth/generative-language.retriever
  • https://www.googleapis.com/auth/generative-language.retriever.readonly

Per ulteriori informazioni, consulta la Panoramica dell'autenticazione.