PaLM (decommissioned)

Metodo: models.generateText

Genera una risposta dal modello in base a un messaggio di input.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome del Model o del TunedModel da utilizzare per generare il completamento. Esempi: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ha la forma models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Dato un prompt, il modello genera una risposta di completamento del testo che prevede come completamento del testo di input.

safetySettings[] object (SafetySetting)

Facoltativo. Un elenco di istanze SafetySetting univoche per bloccare i contenuti non sicuri.

che verranno applicate a GenerateTextRequest.prompt e GenerateTextResponse.candidates. Non deve essere presente più di un'impostazione per ogni tipo di SafetyCategory. L'API bloccherà tutti i prompt e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory specificato in safetySettings. Se nell'elenco non è presente SafetySetting per un determinato SafetyCategory, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Le categorie di danno HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di messaggistica.

stopSequences[] string

L'insieme di sequenze di caratteri (fino a 5) che interrompe la generazione dell'output. Se specificato, l'API si fermerà alla prima apparizione di una sequenza di arresto. La sequenza di fermate non verrà inclusa nella risposta.

temperature number

Facoltativo. Controlla la casualità dell'output. Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.temperature di Model restituito dalla funzione getModel.

I valori possono variare da [0,0,1,0], inclusi. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 in genere genera risposte più semplici da parte del modello.

candidateCount integer

Facoltativo. Numero di risposte generate da restituire.

Questo valore deve essere compreso tra [1, 8], inclusi. Se non viene impostato, il valore predefinito è 1.

maxOutputTokens integer

Facoltativo. Il numero massimo di token da includere in un candidato.

Se non viene impostato, il valore predefinito è outputTokenLimit specificato nella specifica Model.

topP number

Facoltativo. La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

I token vengono ordinati in base alle probabilità assegnate in modo da considerare solo i token più probabili. Il campionamento Top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleus limita il numero di token in base alla probabilità cumulativa.

Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_p di Model restituito dalla funzione getModel.

topK integer

Facoltativo. Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

Il campionamento Top-k prende in considerazione l'insieme dei topK token più probabili. Il valore predefinito è 40.

Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_k di Model restituito dalla funzione getModel.

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse.

Metodo: models.countTextTokens

Esegue il tokenizzatore di un modello su un testo e restituisce il conteggio dei token.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome della risorsa del modello. che funge da ID per il modello.

Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list.

Formato: models/{model} Deve avere il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Corpo della risposta

Una risposta da models.countTextTokens.

Restituisce il tokenCount del modello per il prompt.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
tokenCount integer

Il numero di token in cui model tokenizza prompt.

Deve sempre essere non negativo.

Rappresentazione JSON
{
  "tokenCount": integer
}

Metodo: models.generateMessage

Genera una risposta dal modello in base a un input MessagePrompt.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome del modello da utilizzare.

Formato: name=models/{model}. Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (MessagePrompt)

Obbligatorio. L'input di testo strutturato fornito al modello come prompt.

A fronte di un prompt, il modello restituirà quello che prevede essere il messaggio successivo nella discussione.

temperature number

Facoltativo. Controlla la casualità dell'output.

I valori possono essere compresi tra [0.0,1.0] e oltre, inclusi. Un valore più vicino a 1.0 produrrà risposte più varie, mentre un valore più vicino a 0.0 in genere genera risposte meno sorprendenti da parte del modello.

candidateCount integer

Facoltativo. Il numero di messaggi di risposta generati da restituire.

Questo valore deve essere compreso tra [1, 8], incluso. Se non viene impostato, il valore predefinito è 1.

topP number

Facoltativo. La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

Il campionamento Nucleus prende in considerazione l'insieme più piccolo di token la cui somma delle probabilità è almeno topP.

topK integer

Facoltativo. Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

Il campionamento Top-k prende in considerazione l'insieme dei topK token più probabili.

Corpo della risposta

La risposta del modello.

Sono inclusi i messaggi candidati e la cronologia delle conversazioni sotto forma di messaggi ordinati cronologicamente.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
candidates[] object (Message)

Messaggi di risposta del candidato dal modello.

messages[] object (Message)

La cronologia delle conversazioni utilizzata dal modello.

filters[] object (ContentFilter)

Un insieme di metadati per il filtro dei contenuti per il testo del prompt e della risposta.

Indica quali SafetyCategory hanno bloccato un candidato da questa risposta, il HarmProbability più basso che ha attivato un blocco e l'impostazione HarmThreshold per la categoria in questione.

Rappresentazione JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Metodo: models.countMessageTokens

Esegue il tokenizzatore di un modello su una stringa e restituisce il conteggio dei token.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome della risorsa del modello. che funge da ID per il modello.

Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list.

Formato: models/{model} Deve avere il formato models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (MessagePrompt)

Obbligatorio. Il prompt di cui deve essere restituito il conteggio dei token.

Corpo della risposta

Una risposta da models.countMessageTokens.

Restituisce il tokenCount del modello per il prompt.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
tokenCount integer

Il numero di token in cui model tokenizza prompt.

Deve sempre essere non negativo.

Rappresentazione JSON
{
  "tokenCount": integer
}

Metodo: models.embedText

Genera un embedding dal modello in base a un messaggio di input.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}. Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
text string

Facoltativo. Il testo di input in formato libero che il modello trasformerà in un embedding.

Corpo della risposta

La risposta a un messaggio EmbedTextRequest.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
embedding object (Embedding)

Solo output. L'embedding generato dal testo inserito.

Rappresentazione JSON
{
  "embedding": {
    object (Embedding)
  }
}

Metodo: models.batchEmbedText

Genera più rappresentazioni distribuite dal modello in base al testo di input in una chiamata sincrona.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome del Model da utilizzare per generare l'embedding. Esempi: models/embedding-gecko-001 Il formato è models/{model}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
texts[] string

Facoltativo. I testi di input in formato libero che il modello trasformerà in un embedding. Il limite attuale è di 100 testi, oltre i quali verrà generato un errore.

requests[] object (EmbedTextRequest)

Facoltativo. Incorpora le richieste per il batch. È possibile impostare un solo elemento (texts o requests).

Corpo della risposta

La risposta a un messaggio EmbedTextRequest.

In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:

Campi
embeddings[] object (Embedding)

Solo output. Gli incorporamenti generati dal testo inserito.

Rappresentazione JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Richiesta di ottenere un embedding di testo dal modello.

Campi
model string

Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}.

text string

Facoltativo. Il testo di input in formato libero che il modello trasformerà in un embedding.

Rappresentazione JSON
{
  "model": string,
  "text": string
}

Metodo: tunedModels.generateText

Genera una risposta dal modello in base a un messaggio di input.

Endpoint

post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

L'URL utilizza la sintassi di transcodifica gRPC.

Parametri del percorso

model string

Obbligatorio. Il nome del Model o del TunedModel da utilizzare per generare il completamento. Esempi: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ha la forma tunedModels/{tunedmodel}.

Corpo della richiesta

Il corpo della richiesta contiene dati con la seguente struttura:

Campi
prompt object (TextPrompt)

Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.

Dato un prompt, il modello genera una risposta di completamento del testo che prevede come completamento del testo di input.

safetySettings[] object (SafetySetting)

Facoltativo. Un elenco di istanze SafetySetting univoche per bloccare i contenuti non sicuri.

che verranno applicate a GenerateTextRequest.prompt e GenerateTextResponse.candidates. Non deve essere presente più di un'impostazione per ogni tipo di SafetyCategory. L'API bloccherà tutti i prompt e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory specificato in safetySettings. Se nell'elenco non è presente SafetySetting per un determinato SafetyCategory, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Le categorie di danno HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di messaggistica.

stopSequences[] string

L'insieme di sequenze di caratteri (fino a 5) che interrompe la generazione dell'output. Se specificato, l'API si fermerà alla prima apparizione di una sequenza di arresto. La sequenza di fermate non verrà inclusa nella risposta.

temperature number

Facoltativo. Controlla la casualità dell'output. Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.temperature di Model restituito dalla funzione getModel.

I valori possono variare da [0,0,1,0], inclusi. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 in genere genera risposte più semplici da parte del modello.

candidateCount integer

Facoltativo. Numero di risposte generate da restituire.

Questo valore deve essere compreso tra [1, 8], inclusi. Se non viene impostato, il valore predefinito è 1.

maxOutputTokens integer

Facoltativo. Il numero massimo di token da includere in un candidato.

Se non viene impostato, il valore predefinito è outputTokenLimit specificato nella specifica Model.

topP number

Facoltativo. La probabilità cumulativa massima dei token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

I token vengono ordinati in base alle probabilità assegnate in modo da considerare solo i token più probabili. Il campionamento Top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleus limita il numero di token in base alla probabilità cumulativa.

Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_p di Model restituito dalla funzione getModel.

topK integer

Facoltativo. Il numero massimo di token da considerare durante il campionamento.

Il modello utilizza il campionamento combinato Top-k e Nucleus.

Il campionamento Top-k prende in considerazione l'insieme dei topK token più probabili. Il valore predefinito è 40.

Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_k di Model restituito dalla funzione getModel.

Corpo della risposta

In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse.

ContentFilter

Metadati del filtro dei contenuti associati all'elaborazione di una singola richiesta.

ContentFilter contiene un motivo e una stringa di supporto facoltativa. Il motivo potrebbe non essere specificato.

Campi
reason enum (BlockedReason)

Il motivo per cui i contenuti sono stati bloccati durante l'elaborazione della richiesta.

message string

Una stringa che descrive il comportamento di filtro in modo più dettagliato.

Rappresentazione JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Un elenco di motivi per cui i contenuti potrebbero essere stati bloccati.

Enum
BLOCKED_REASON_UNSPECIFIED Non è stato specificato un motivo del blocco.
SAFETY I contenuti sono stati bloccati dalle impostazioni di sicurezza.
OTHER I contenuti sono stati bloccati, ma il motivo non è classificato.

Incorporamento

Un elenco di valori float che rappresentano l'embedding.

Campi
value[] number

I valori di incorporamento.

Rappresentazione JSON
{
  "value": [
    number
  ]
}

Messaggio

L'unità di base del testo strutturato.

Un Message include un author e il content del Message.

author viene utilizzato per taggare i messaggi quando vengono inseriti nel modello come testo.

Campi
author string

Facoltativo. L'autore di questo messaggio.

Serve da chiave per il tagging dei contenuti di questo messaggio quando viene fornito al modello come testo.

L'autore può essere qualsiasi stringa alfanumerica.

content string

Obbligatorio. Il contenuto del testo dell'Message strutturato.

citationMetadata object (CitationMetadata)

Solo output. Informazioni sulle citazioni per content generato dal modello in questo Message.

Se questo Message è stato generato come output del modello, questo campo può essere compilato con le informazioni di attribuzione per qualsiasi testo incluso nel content. Questo campo viene utilizzato solo in uscita.

Rappresentazione JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Tutto il testo di input strutturato passato al modello come prompt.

Un MessagePrompt contiene un insieme strutturato di campi che forniscono il contesto per la conversazione, esempi di coppie di messaggi di input dell'utente/output del modello che preparano il modello a rispondere in modi diversi e la cronologia della conversazione o l'elenco dei messaggi che rappresentano i turni alternati della conversazione tra l'utente e il modello.

Campi
context string

Facoltativo. Il testo che deve essere fornito per primo al modello per basare la risposta.

Se non è vuoto, questo context verrà fornito al modello prima di examples e messages. Quando utilizzi un context, assicurati di fornirlo a ogni richiesta per mantenere la continuità.

Questo campo può essere una descrizione del prompt per il modello per fornire contesto e orientare le risposte. Esempi: "Traduci la frase dall'inglese al francese" oppure "Data un'affermazione, classifica il sentiment come felice, triste o neutro".

Qualsiasi elemento incluso in questo campo avrà la precedenza sulla cronologia dei messaggi se le dimensioni totali dell'input superano il inputTokenLimit del modello e la richiesta di input viene troncata.

examples[] object (Example)

Facoltativo. Esempi di ciò che il modello deve generare.

Sono inclusi sia l'input dell'utente sia la risposta che il modello deve emulare.

Questi examples vengono trattati in modo identico ai messaggi di conversazione, tranne per il fatto che hanno la precedenza sulla cronologia in messages: se le dimensioni totali dell'input superano il valore inputTokenLimit del modello, l'input verrà troncato. Gli elementi verranno rimossi da messages prima del giorno examples.

messages[] object (Message)

Obbligatorio. Uno snapshot della cronologia delle conversazioni recenti, ordinata in ordine cronologico.

I turni si alternano tra due autori.

Se le dimensioni totali dell'input superano inputTokenLimit del modello, l'input verrà troncato: gli elementi più vecchi verranno rimossi da messages.

Rappresentazione JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Esempio

Un esempio di input/output utilizzato per istruire il modello.

Mostra come il modello deve rispondere o formattare la risposta.

Campi
input object (Message)

Obbligatorio. Un esempio di input Message da parte dell'utente.

output object (Message)

Obbligatorio. Un esempio di ciò che il modello dovrebbe produrre in base all'input.

Rappresentazione JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

La risposta del modello, inclusi i completamenti candidati.

Campi
candidates[] object (TextCompletion)

Risposte candidate del modello.

filters[] object (ContentFilter)

Un insieme di metadati per il filtro dei contenuti per il testo del prompt e della risposta.

Indica quali SafetyCategory hanno bloccato un candidato da questa risposta, il HarmProbability più basso che ha attivato un blocco e l'impostazione HarmThreshold per la categoria in questione. Indica la modifica minima al valore SafetySettings necessaria per sbloccare almeno una risposta.

Il blocco è configurato dal parametro SafetySettings nella richiesta (o dal parametro SafetySettings predefinito dell'API).

safetyFeedback[] object (SafetyFeedback)

Restituisce eventuali feedback sulla sicurezza relativi al filtro dei contenuti.

Rappresentazione JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Testo di output restituito da un modello.

Campi
output string

Solo output. Il testo generato restituito dal modello.

safetyRatings[] object (SafetyRating)

Valutazioni della sicurezza di una risposta.

Esiste al massimo una classificazione per categoria.

citationMetadata object (CitationMetadata)

Solo output. Informazioni sulle citazioni per output generato dal modello in questo TextCompletion.

Questo campo può essere compilato con informazioni sull'attribuzione per qualsiasi testo incluso in output.

Rappresentazione JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Feedback sulla sicurezza per un'intera richiesta.

Questo campo viene compilato se i contenuti dell'input e/o della risposta sono bloccati a causa delle impostazioni di sicurezza. SafetyFeedback potrebbe non esistere per ogni HarmCategory. Ogni SafetyFeedback restituirà le impostazioni di sicurezza utilizzate dalla richiesta, nonché la probabilità di danno più bassa che deve essere consentita per restituire un risultato.

Campi
rating object (SafetyRating)

Valutazione di sicurezza valutata in base ai contenuti.

setting object (SafetySetting)

Impostazioni di sicurezza applicate alla richiesta.

Rappresentazione JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Testo fornito al modello come prompt.

Il modello utilizzerà questo prompt di testo per generare un completamento del testo.

Campi
text string

Obbligatorio. Il testo del prompt.

Rappresentazione JSON
{
  "text": string
}