PaLM (deprecated)

Metodo: models.generateText

Genera una risposta dal modello dato un messaggio di input.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parametri del percorso

model string

Obbligatorio. Il nome dell'evento Model o TunedModel da utilizzare per generare il completamento. Esempi: templates/text-bison-001 TunedModels/sentence-translator-u3b7m Prende il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Dato un prompt, il modello genererà una risposta TextComplete che prevede come completamento del testo di input.

safetySettings[] object (SafetySetting)

(Facoltativo) Un elenco di istanze SafetySetting univoche per il blocco di contenuti non sicuri.

che verrà applicato in GenerateTextRequest.prompt e in GenerateTextResponse.candidates. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory. L'API bloccherà tutti i prompt e le risposte che non rispetteranno le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory specificato in safetySettings. Se non è presente alcun valore SafetySetting per un determinato SafetyCategory nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Le categorie di danni HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di testo.

stopSequences[] string

L'insieme di sequenze di caratteri (fino a 5) che interrompono la generazione dell'output. Se specificato, l'API si arresterà alla prima apparizione di una sequenza di interruzioni. La sequenza di interruzione non sarà inclusa nella risposta.

temperature number

(Facoltativo) Controlla la casualità dell'output. Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.temperature di Model abbia restituito la funzione getModel.

I valori possono essere compresi nell'intervallo [0,0,1,0] incluso. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 genererà risposte più dirette dal modello.

candidateCount integer

(Facoltativo) Numero di risposte generate da restituire.

Questo valore deve essere compreso tra [1, 8] inclusi. Se non viene configurato, il valore predefinito è 1.

maxOutputTokens integer

(Facoltativo) Il numero massimo di token da includere in un candidato.

Se non viene configurato, verrà utilizzato il valore predefinito di outputTokenLimit nella specifica Model.

topP number

(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

I token vengono ordinati in base alle probabilità assegnate in modo che vengano presi in considerazione solo i token più probabili. Il campionamento top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleo limita il numero di token in base alla probabilità cumulativa.

Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.top_p di Model abbia restituito la funzione getModel.

topK integer

(Facoltativo) Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

Il campionamento Top-k prende in considerazione l'insieme di topK token più probabili. Il valore predefinito è 40.

Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.top_k di Model abbia restituito la funzione getModel.

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse.

Metodo: models.countTextTokens

Esegue il tokenizzatore di un modello su un testo e restituisce il conteggio dei token.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parametri del percorso

model string

Obbligatorio. Il nome della risorsa del modello. Serve da ID per il modello.

Questo nome deve corrispondere a un nome di modello restituito dal metodo models.list.

Formato: models/{model} Prende il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Corpo della risposta

Una risposta da models.countTextTokens.

Restituisce il valore tokenCount del modello per prompt.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
tokenCount integer

Il numero di token in cui model tokenizza prompt.

Sempre non negativo.

Rappresentazione JSON
{
  "tokenCount": integer
}

Metodo: models.generateMessage

Genera una risposta dal modello dato un input MessagePrompt.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parametri del percorso

model string

Obbligatorio. Il nome del modello da utilizzare.

Formato: name=models/{model}. Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (MessagePrompt)

Obbligatorio. L'input testuale strutturato fornito al modello come prompt.

Dato un prompt, il modello restituirà quello che prevede sarà il messaggio successivo nella discussione.

temperature number

(Facoltativo) Controlla la casualità dell'output.

I valori possono essere superiori a [0.0,1.0] inclusi. Un valore più vicino a 1.0 produrrà risposte più variegate, mentre un valore più vicino a 0.0 genererà risposte meno sorprendenti da parte del modello.

candidateCount integer

(Facoltativo) Il numero di messaggi di risposta generati da restituire.

Questo valore deve essere compreso tra [1, 8] compreso. Se non viene configurato, il valore predefinito è 1.

topP number

(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

Il campionamento del nucleo prende in considerazione l'insieme più piccolo di token la cui somma di probabilità è almeno topP.

topK integer

(Facoltativo) Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

Il campionamento Top-k prende in considerazione l'insieme di topK token più probabili.

Corpo della risposta

La risposta dal modello.

Sono inclusi i messaggi dei candidati e la cronologia delle conversazioni sotto forma di messaggi in ordine cronologico.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
candidates[] object (Message)

Messaggi di risposta dei candidati del modello.

messages[] object (Message)

La cronologia delle conversazioni utilizzata dal modello.

filters[] object (ContentFilter)

Un insieme di metadati di filtro dei contenuti per il testo del prompt e della risposta.

Indica quali SafetyCategory hanno bloccato un candidato per questa risposta, i HarmProbability più bassi che hanno attivato un blocco e l'impostazione HarmThreshold per quella categoria.

Rappresentazione JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metodo: models.countMessageTokens

Esegue il tokenizzatore di un modello su una stringa e restituisce il conteggio dei token.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parametri del percorso

model string

Obbligatorio. Il nome della risorsa del modello. Serve da ID per il modello.

Questo nome deve corrispondere a un nome di modello restituito dal metodo models.list.

Formato: models/{model} Prende il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (MessagePrompt)

Obbligatorio. Il prompt di cui deve essere restituito il conteggio dei token.

Corpo della risposta

Una risposta da models.countMessageTokens.

Restituisce il valore tokenCount del modello per prompt.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
tokenCount integer

Il numero di token in cui model tokenizza prompt.

Sempre non negativo.

Rappresentazione JSON
{
  "tokenCount": integer
}

Metodo: models.embedText

Genera un incorporamento dal modello dato un messaggio di input.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parametri del percorso

model string

Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}. Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
text string

(Facoltativo) Il testo di input in formato libero che il modello trasformerà in un incorporamento.

Corpo della risposta

La risposta a una richiesta EmbedTextRequest.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
embedding object (Embedding)

Solo output. L'incorporamento generato dal testo di input.

Rappresentazione JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metodo: models.batchEmbedText

Genera più incorporamenti dal modello dato il testo di input in una chiamata sincrona.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parametri del percorso

model string

Obbligatorio. Il nome dell'elemento Model da utilizzare per generare l'incorporamento. Esempi: models/embedding-gecko-001 Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
texts[] string

(Facoltativo) I testi di input in formato libero che il modello trasformerà in un incorporamento. Il limite attuale è di 100 testi, oltre i quali verrà generato un errore.

requests[] object (EmbedTextRequest)

(Facoltativo) Incorpora le richieste per il batch. È possibile impostarne solo uno tra texts o requests.

Corpo della risposta

La risposta a una richiesta EmbedTextRequest.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
embeddings[] object (Embedding)

Solo output. Gli incorporamenti generati dal testo di input.

Rappresentazione JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Richiesta di ottenere un incorporamento di testo dal modello.

Rappresentazione JSON
{
  "model": string,
  "text": string
}
Campi
model string

Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}.

text string

(Facoltativo) Il testo di input in formato libero che il modello trasformerà in un incorporamento.

Metodo: TunedModels.generateText

Genera una risposta dal modello dato un messaggio di input.

Endpoint

pubblica https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parametri del percorso

model string

Obbligatorio. Il nome dell'evento Model o TunedModel da utilizzare per generare il completamento. Esempi: templates/text-bison-001 TunedModels/sentence-translator-u3b7m Prende il formato tunedModels/{tunedmodel}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Dato un prompt, il modello genererà una risposta TextComplete che prevede come completamento del testo di input.

safetySettings[] object (SafetySetting)

(Facoltativo) Un elenco di istanze SafetySetting univoche per il blocco di contenuti non sicuri.

che verrà applicato in GenerateTextRequest.prompt e in GenerateTextResponse.candidates. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory. L'API bloccherà tutti i prompt e le risposte che non rispetteranno le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory specificato in safetySettings. Se non è presente alcun valore SafetySetting per un determinato SafetyCategory nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Le categorie di danni HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di testo.

stopSequences[] string

L'insieme di sequenze di caratteri (fino a 5) che interrompono la generazione dell'output. Se specificato, l'API si arresterà alla prima apparizione di una sequenza di interruzioni. La sequenza di interruzione non sarà inclusa nella risposta.

temperature number

(Facoltativo) Controlla la casualità dell'output. Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.temperature di Model abbia restituito la funzione getModel.

I valori possono essere compresi nell'intervallo [0,0,1,0] incluso. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 genererà risposte più dirette dal modello.

candidateCount integer

(Facoltativo) Numero di risposte generate da restituire.

Questo valore deve essere compreso tra [1, 8] inclusi. Se non viene configurato, il valore predefinito è 1.

maxOutputTokens integer

(Facoltativo) Il numero massimo di token da includere in un candidato.

Se non viene configurato, verrà utilizzato il valore predefinito di outputTokenLimit nella specifica Model.

topP number

(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

I token vengono ordinati in base alle probabilità assegnate in modo che vengano presi in considerazione solo i token più probabili. Il campionamento top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleo limita il numero di token in base alla probabilità cumulativa.

Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.top_p di Model abbia restituito la funzione getModel.

topK integer

(Facoltativo) Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento Top-K e del nucleo combinato.

Il campionamento Top-k prende in considerazione l'insieme di topK token più probabili. Il valore predefinito è 40.

Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.top_k di Model abbia restituito la funzione getModel.

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse.

ContentFilter

Metadati di filtro dei contenuti associati all'elaborazione di una singola richiesta.

ContentFilter contiene un motivo e una stringa di supporto facoltativa. Il motivo potrebbe non essere specificato.

Rappresentazione JSON
{
  "reason": enum (BlockedReason),
  "message": string
}
Campi
reason enum (BlockedReason)

Il motivo per cui i contenuti sono stati bloccati durante l'elaborazione della richiesta.

message string

Una stringa che descrive in modo più dettagliato il comportamento di filtro.

BlockedReason

Un elenco dei motivi per cui i contenuti potrebbero essere stati bloccati.

Enum
BLOCKED_REASON_UNSPECIFIED Non è stato specificato un motivo del blocco.
SAFETY I contenuti sono stati bloccati dalle impostazioni di sicurezza.
OTHER I contenuti sono stati bloccati, ma il motivo non è classificato.

Incorporamento

Un elenco di numeri in virgola mobile che rappresentano l'incorporamento.

Rappresentazione JSON
{
  "value": [
    number
  ]
}
Campi
value[] number

I valori di incorporamento.

Messaggio

L'unità di base del testo strutturato.

Un Message include un author e i content di Message.

author viene utilizzato per taggare i messaggi quando vengono inviati al modello come testo.

Rappresentazione JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Campi
author string

(Facoltativo) L'autore di questo messaggio.

Questa funge da chiave per il tagging dei contenuti di questo messaggio quando viene trasmesso al modello come testo.

L'autore può essere qualsiasi stringa alfanumerica.

content string

Obbligatorio. I contenuti testuali della struttura Message.

citationMetadata object (CitationMetadata)

Solo output. Informazioni di citazione per content generato dal modello in questo Message.

Se questo Message è stato generato come output dal modello, questo campo può essere compilato con le informazioni di attribuzione per qualsiasi testo incluso nel content. Questo campo viene utilizzato solo nell'output.

MessagePrompt

Tutto il testo di input strutturato passato al modello come prompt.

Un MessagePrompt contiene un insieme strutturato di campi che forniscono il contesto per la conversazione, esempi di coppie di messaggi di input/output del modello che preparano il modello a rispondere in modi diversi e la cronologia della conversazione o l'elenco di messaggi che rappresentano i turni alternati della conversazione tra l'utente e il modello.

Rappresentazione JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}
Campi
context string

(Facoltativo) Testo da fornire prima al modello per stabilire la risposta.

Se non è vuoto, questo valore context verrà fornito al modello prima di examples e messages. Quando utilizzi un context, assicurati di fornirlo per ogni richiesta per mantenere la continuità.

Questo campo può essere una descrizione del prompt inviato al modello per fornire contesto e guidare le risposte. Esempi: "Traduci la frase dall'inglese al francese". oppure "Una volta data una dichiarazione, classifica il sentiment come felice, triste o neutro".

Tutto ciò che è incluso in questo campo avrà la precedenza sulla cronologia dei messaggi se le dimensioni totali di input superano il valore inputTokenLimit del modello e la richiesta di input è troncata.

examples[] object (Example)

(Facoltativo) Esempi di ciò che il modello dovrebbe generare.

Sono inclusi sia l'input dell'utente sia la risposta che il modello deve emulare.

Questi examples vengono trattati in modo identico ai messaggi di conversazione, tranne per il fatto che hanno la precedenza sulla cronologia in messages: se le dimensioni totali di input superano il valore inputTokenLimit del modello, l'input verrà troncato. Gli elementi verranno eliminati da messages prima del giorno examples.

messages[] object (Message)

Obbligatorio. Un'istantanea della cronologia delle conversazioni recenti ordinata in ordine cronologico.

Si alternano due autori.

Se le dimensioni totali di input superano il valore inputTokenLimit del modello, l'input verrà troncato: gli elementi meno recenti verranno eliminati da messages.

Esempio

Un esempio di input/output utilizzato per istruire il modello.

Mostra come il modello dovrebbe rispondere o formattare la sua risposta.

Rappresentazione JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}
Campi
input object (Message)

Obbligatorio. Un esempio di input Message da parte dell'utente.

output object (Message)

Obbligatorio. Un esempio di ciò che il modello dovrebbe restituire dato l'input.

GenerateTextResponse

La risposta del modello, inclusi i completamenti dei candidati.

Rappresentazione JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}
Campi
candidates[] object (TextCompletion)

Risposte dei candidati del modello.

filters[] object (ContentFilter)

Un insieme di metadati di filtro dei contenuti per il testo del prompt e della risposta.

Indica quali SafetyCategory hanno bloccato un candidato per questa risposta, i HarmProbability più bassi che hanno attivato un blocco e l'impostazione HarmThreshold per quella categoria. Indica la modifica minima alla SafetySettings che sarebbe necessaria per sbloccare almeno una risposta.

Il blocco viene configurato da SafetySettings nella richiesta (o dal valore SafetySettings predefinito dell'API).

safetyFeedback[] object (SafetyFeedback)

Restituisce qualsiasi feedback sulla sicurezza relativo al filtro dei contenuti.

TextCompletion

Testo di output restituito da un modello.

Rappresentazione JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}
Campi
output string

Solo output. Il testo generato restituito dal modello.

safetyRatings[] object (SafetyRating)

Classificazioni per la sicurezza di una risposta.

Esiste al massimo una classificazione per categoria.

citationMetadata object (CitationMetadata)

Solo output. Informazioni di citazione per output generato dal modello in questo TextCompletion.

Questo campo può essere compilato con le informazioni sull'attribuzione per qualsiasi testo incluso in output.

SafetyFeedback

Feedback sulla sicurezza per un'intera richiesta.

Questo campo viene compilato se i contenuti nell'input e/o nella risposta sono bloccati a causa delle impostazioni di sicurezza. SafetyFeedback potrebbe non esistere per ogni HarmCategory. Ogni SafetyFeedback restituirà le impostazioni di sicurezza usate dalla richiesta, così come la probabilità di armonia più bassa che dovrebbe essere consentita per restituire un risultato.

Rappresentazione JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}
Campi
rating object (SafetyRating)

Valutazione della sicurezza valutata in base ai contenuti.

setting object (SafetySetting)

Impostazioni di sicurezza applicate alla richiesta.

TextPrompt

Testo fornito al modello come prompt.

Il modello utilizzerà questo prompt di testo per generare un completamento testuale.

Rappresentazione JSON
{
  "text": string
}
Campi
text string

Obbligatorio. Il testo del prompt.