Metodo: models.generateText
Genera una risposta dal modello dato un messaggio di input.
Endpoint
pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextParametri del percorso
model
string
Obbligatorio. Il nome del Model
o del TunedModel
da utilizzare per generare il completamento. Esempi: templates/text-bison-001 TunedModels/sentence-translator-u3b7m Prende il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
prompt
object (TextPrompt
)
Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.
Dato un prompt, il modello genererà una risposta TextComplete che prevede come completamento del testo di input.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
univoche per il blocco di contenuti non sicuri.
che verrà applicato in GenerateTextRequest.prompt
e in GenerateTextResponse.candidates
. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i prompt e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se non è presente alcun valore SafetySetting
per un determinato SafetyCategory
nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Le categorie di danno HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di testo.
stopSequences[]
string
L'insieme di sequenze di caratteri (fino a 5) che interrompe la generazione dell'output. Se specificato, l'API si fermerà alla prima apparizione di una sequenza di arresto. La sequenza di fermate non verrà inclusa nella risposta.
temperature
number
(Facoltativo) Controlla la casualità dell'output. Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.temperature
di Model
abbia restituito la funzione getModel
.
I valori possono essere compresi nell'intervallo [0,0,1,0] incluso. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 in genere genera risposte più semplici da parte del modello.
candidateCount
integer
(Facoltativo) Numero di risposte generate da restituire.
Questo valore deve essere compreso tra [1, 8] inclusi. Se non viene configurato, il valore predefinito è 1.
maxOutputTokens
integer
(Facoltativo) Il numero massimo di token da includere in un candidato.
Se non viene configurato, verrà utilizzato il valore predefinito di outputTokenLimit nella specifica Model
.
topP
number
(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
I token vengono ordinati in base alle probabilità assegnate in modo da considerare solo i token più probabili. Il campionamento top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleo limita il numero di token in base alla probabilità cumulativa.
Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_p
di Model
restituito dalla funzione getModel
.
topK
integer
(Facoltativo) Il numero massimo di token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
Il campionamento Top-k prende in considerazione l'insieme di topK
token più probabili. Il valore predefinito è 40.
Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_k
di Model
restituito dalla funzione getModel
.
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse
.
Metodo: models.countTextTokens
Esegue il tokenizzatore di un modello su un testo e restituisce il conteggio dei token.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensParametri del percorso
model
string
Obbligatorio. Il nome della risorsa del modello. Serve da ID per il modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
Prende il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
prompt
object (TextPrompt
)
Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.
Corpo della risposta
Una risposta da models.countTextTokens
.
Restituisce il valore tokenCount
del modello per prompt
.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
tokenCount
integer
Il numero di token in cui model
tokenizza prompt
.
Sempre non negativo.
Rappresentazione JSON |
---|
{ "tokenCount": integer } |
Metodo: models.generateMessage
Genera una risposta dal modello in base a un input MessagePrompt
.
Endpoint
pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageParametri del percorso
model
string
Obbligatorio. Il nome del modello da utilizzare.
Formato: name=models/{model}
. Il formato è models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
prompt
object (MessagePrompt
)
Obbligatorio. L'input di testo strutturato fornito al modello come prompt.
Dopo un prompt, il modello restituirà quello che prevede sarà il messaggio successivo nella discussione.
temperature
number
(Facoltativo) Controlla la casualità dell'output.
I valori possono essere superiori a [0.0,1.0]
inclusi. Un valore più vicino a 1.0
produrrà risposte più varie, mentre un valore più vicino a 0.0
in genere genera risposte meno sorprendenti da parte del modello.
candidateCount
integer
(Facoltativo) Il numero di messaggi di risposta generati da restituire.
Questo valore deve essere compreso tra [1, 8]
, incluso. Se non viene configurato, il valore predefinito è 1
.
topP
number
(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
Il campionamento Nucleus prende in considerazione l'insieme più piccolo di token la cui somma delle probabilità è almeno topP
.
topK
integer
(Facoltativo) Il numero massimo di token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
Il campionamento Top-k prende in considerazione l'insieme di topK
token più probabili.
Corpo della risposta
La risposta del modello.
Sono inclusi i messaggi candidati e la cronologia delle conversazioni sotto forma di messaggi ordinati cronologicamente.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
candidates[]
object (Message
)
Messaggi di risposta dei candidati del modello.
messages[]
object (Message
)
La cronologia delle conversazioni utilizzata dal modello.
filters[]
object (ContentFilter
)
Un insieme di metadati di filtro dei contenuti per il testo del prompt e della risposta.
Indica quali SafetyCategory
hanno bloccato un candidato per questa risposta, i HarmProbability
più bassi che hanno attivato un blocco e l'impostazione HarmThreshold per quella categoria.
Rappresentazione JSON |
---|
{ "candidates": [ { object ( |
Metodo: models.countMessageTokens
Esegue il tokenizzatore di un modello su una stringa e restituisce il conteggio dei token.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensParametri del percorso
model
string
Obbligatorio. Il nome della risorsa del modello. Serve da ID per il modello.
Questo nome deve corrispondere a un nome del modello restituito dal metodo models.list
.
Formato: models/{model}
Prende il formato models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
prompt
object (MessagePrompt
)
Obbligatorio. Il prompt di cui deve essere restituito il conteggio dei token.
Corpo della risposta
Una risposta da models.countMessageTokens
.
Restituisce il tokenCount
del modello per il prompt
.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
tokenCount
integer
Il numero di token in cui model
esegue la tokenizzazione di prompt
.
Sempre non negativo.
Rappresentazione JSON |
---|
{ "tokenCount": integer } |
Metodo: models.embedText
Genera un embedding dal modello in base a un messaggio di input.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextParametri del percorso
model
string
Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}. Il formato è models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
text
string
(Facoltativo) Il testo di input in formato libero che il modello trasformerà in un embedding.
Corpo della risposta
La risposta a una richiesta EmbedTextRequest.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
embedding
object (Embedding
)
Solo output. L'incorporamento generato dal testo di input.
Rappresentazione JSON |
---|
{
"embedding": {
object ( |
Metodo: models.batchEmbedText
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- EmbedTextRequest
Genera più incorporamenti dal modello dato il testo di input in una chiamata sincrona.
Endpoint
pubblica https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextParametri del percorso
model
string
Obbligatorio. Il nome del Model
da utilizzare per generare l'embedding. Esempi: models/embedding-gecko-001 Il formato è models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
texts[]
string
(Facoltativo) I testi di input in formato libero che il modello trasformerà in un incorporamento. Il limite attuale è di 100 testi, oltre i quali verrà generato un errore.
requests[]
object (EmbedTextRequest
)
(Facoltativo) Incorpora le richieste per il batch. È possibile impostarne solo uno tra texts
o requests
.
Corpo della risposta
La risposta a una richiesta EmbedTextRequest.
In caso di esito positivo, il corpo della risposta contiene dati con la seguente struttura:
embeddings[]
object (Embedding
)
Solo output. Gli incorporamenti generati dal testo inserito.
Rappresentazione JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Richiesta di ottenere un incorporamento di testo dal modello.
model
string
Obbligatorio. Il nome del modello da utilizzare con il formato model=models/{model}.
text
string
(Facoltativo) Il testo di input in formato libero che il modello trasformerà in un incorporamento.
Rappresentazione JSON |
---|
{ "model": string, "text": string } |
Metodo: tunedModels.generateText
Genera una risposta dal modello dato un messaggio di input.
Endpoint
pubblica https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextParametri del percorso
model
string
Obbligatorio. Il nome dell'evento Model
o TunedModel
da utilizzare per generare il completamento. Esempi: templates/text-bison-001 TunedModels/sentence-translator-u3b7m Prende il formato tunedModels/{tunedmodel}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
prompt
object (TextPrompt
)
Obbligatorio. Il testo di input in formato libero fornito al modello come prompt.
Dato un prompt, il modello genererà una risposta TextComplete che prevede come completamento del testo di input.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
univoche per il blocco di contenuti non sicuri.
che verrà applicato in GenerateTextRequest.prompt
e in GenerateTextResponse.candidates
. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i prompt e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se non è presente alcun valore SafetySetting
per un determinato SafetyCategory
nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Le categorie di danno HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS sono supportate nel servizio di testo.
stopSequences[]
string
L'insieme di sequenze di caratteri (fino a 5) che interrompe la generazione dell'output. Se specificato, l'API si fermerà alla prima apparizione di una sequenza di arresto. La sequenza di fermate non verrà inclusa nella risposta.
temperature
number
(Facoltativo) Controlla la casualità dell'output. Nota: il valore predefinito varia a seconda del modello; controlla che l'attributo Model.temperature
di Model
abbia restituito la funzione getModel
.
I valori possono essere compresi nell'intervallo [0,0,1,0] incluso. Un valore più vicino a 1,0 produrrà risposte più varie e creative, mentre un valore più vicino a 0,0 in genere genera risposte più semplici da parte del modello.
candidateCount
integer
(Facoltativo) Numero di risposte generate da restituire.
Questo valore deve essere compreso tra [1, 8] inclusi. Se non viene configurato, il valore predefinito è 1.
maxOutputTokens
integer
(Facoltativo) Il numero massimo di token da includere in un candidato.
Se non viene configurato, verrà utilizzato il valore predefinito di outputTokenLimit nella specifica Model
.
topP
number
(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
I token vengono ordinati in base alle probabilità assegnate in modo da considerare solo i token più probabili. Il campionamento top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleo limita il numero di token in base alla probabilità cumulativa.
Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_p
di Model
restituito dalla funzione getModel
.
topK
integer
(Facoltativo) Il numero massimo di token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Nucleus.
Il campionamento Top-k prende in considerazione l'insieme di topK
token più probabili. Il valore predefinito è 40.
Nota: il valore predefinito varia in base al modello, consulta l'attributo Model.top_k
di Model
restituito dalla funzione getModel
.
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateTextResponse
.
ContentFilter
Metadati di filtro dei contenuti associati all'elaborazione di una singola richiesta.
ContentFilter contiene un motivo e una stringa di supporto facoltativa. Il motivo potrebbe non essere specificato.
reason
enum (BlockedReason
)
Il motivo per cui i contenuti sono stati bloccati durante l'elaborazione della richiesta.
message
string
Una stringa che descrive in modo più dettagliato il comportamento di filtro.
Rappresentazione JSON |
---|
{
"reason": enum ( |
BlockedReason
Un elenco di motivi per cui i contenuti potrebbero essere stati bloccati.
Enum | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
Non è stato specificato un motivo del blocco. |
SAFETY |
I contenuti sono stati bloccati dalle impostazioni di sicurezza. |
OTHER |
I contenuti sono stati bloccati, ma il motivo non è classificato. |
Incorporamento
Un elenco di valori float che rappresentano l'embedding.
value[]
number
I valori di incorporamento.
Rappresentazione JSON |
---|
{ "value": [ number ] } |
Messaggio
L'unità di base del testo strutturato.
Un Message
include un author
e i content
di Message
.
author
viene utilizzato per taggare i messaggi quando vengono inseriti nel modello come testo.
content
string
Obbligatorio. Il contenuto del testo dell'Message
strutturato.
citationMetadata
object (CitationMetadata
)
Solo output. Informazioni sulle citazioni per content
generato dal modello in questo Message
.
Se questo Message
è stato generato come output dal modello, questo campo può essere compilato con le informazioni di attribuzione per qualsiasi testo incluso nel content
. Questo campo viene utilizzato solo nell'output.
Rappresentazione JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Tutto il testo di input strutturato passato al modello come prompt.
Un MessagePrompt
contiene un insieme strutturato di campi che forniscono il contesto della conversazione, esempi di coppie di messaggi di input dell'utente/output del modello che preparano il modello a rispondere in modi diversi e la cronologia della conversazione o l'elenco dei messaggi che rappresentano i turni alternati della conversazione tra l'utente e il modello.
context
string
(Facoltativo) Testo da fornire prima al modello per stabilire la risposta.
Se non è vuoto, questo valore context
verrà fornito al modello prima di examples
e messages
. Quando utilizzi un context
, assicurati di fornirlo per ogni richiesta per mantenere la continuità.
Questo campo può essere una descrizione del prompt per il modello per fornire contesto e orientare le risposte. Esempi: "Traduci la frase dall'inglese al francese". oppure "Una volta data una dichiarazione, classifica il sentiment come felice, triste o neutro".
Qualsiasi elemento incluso in questo campo avrà la precedenza sulla cronologia dei messaggi se le dimensioni totali dell'input superano il inputTokenLimit
del modello e la richiesta di input viene troncata.
examples[]
object (Example
)
(Facoltativo) Esempi di ciò che il modello deve generare.
Sono inclusi sia l'input dell'utente sia la risposta che il modello deve emulare.
Questi examples
vengono trattati in modo identico ai messaggi di conversazione, tranne per il fatto che hanno la precedenza sulla cronologia in messages
: se le dimensioni totali di input superano il valore inputTokenLimit
del modello, l'input verrà troncato. Gli elementi verranno eliminati da messages
prima del giorno examples
.
messages[]
object (Message
)
Obbligatorio. Un'istantanea della cronologia delle conversazioni recenti ordinata in ordine cronologico.
I turni si alternano tra due autori.
Se le dimensioni totali di input superano il valore inputTokenLimit
del modello, l'input verrà troncato: gli elementi meno recenti verranno eliminati da messages
.
Esempio
Un esempio di input/output utilizzato per istruire il modello.
Mostra come il modello deve rispondere o formattare la risposta.
input
object (Message
)
Obbligatorio. Un esempio di input Message
da parte dell'utente.
output
object (Message
)
Obbligatorio. Un esempio di ciò che il modello dovrebbe restituire dato l'input.
GenerateTextResponse
La risposta del modello, incluse le potenziali compilazioni.
candidates[]
object (TextCompletion
)
Risposte candidate del modello.
filters[]
object (ContentFilter
)
Un insieme di metadati per il filtro dei contenuti per il testo del prompt e della risposta.
Indica quali SafetyCategory
hanno bloccato un candidato per questa risposta, i HarmProbability
più bassi che hanno attivato un blocco e l'impostazione HarmThreshold per quella categoria. Indica la modifica più piccola al valore SafetySettings
necessaria per sbloccare almeno una risposta.
Il blocco viene configurato da SafetySettings
nella richiesta (o dal valore SafetySettings
predefinito dell'API).
safetyFeedback[]
object (SafetyFeedback
)
Restituisce qualsiasi feedback sulla sicurezza relativo al filtro dei contenuti.
Rappresentazione JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Testo di output restituito da un modello.
output
string
Solo output. Il testo generato restituito dal modello.
safetyRatings[]
object (SafetyRating
)
Classificazioni per la sicurezza di una risposta.
Esiste al massimo una classificazione per categoria.
citationMetadata
object (CitationMetadata
)
Solo output. Informazioni di citazione per output
generato dal modello in questo TextCompletion
.
Questo campo può essere compilato con informazioni sull'attribuzione per qualsiasi testo incluso in output
.
Rappresentazione JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Feedback sulla sicurezza per un'intera richiesta.
Questo campo viene compilato se i contenuti dell'input e/o della risposta sono bloccati a causa delle impostazioni di sicurezza. SafetyFeedback potrebbe non esistere per ogni HarmCategory. Ogni SafetyFeedback restituirà le impostazioni di sicurezza utilizzate dalla richiesta, nonché la probabilità di danno più bassa che deve essere consentita per restituire un risultato.
rating
object (SafetyRating
)
Valutazione della sicurezza valutata in base ai contenuti.
setting
object (SafetySetting
)
Impostazioni di sicurezza applicate alla richiesta.
Rappresentazione JSON |
---|
{ "rating": { object ( |