Método: models.generateText
Gera uma resposta do modelo que recebe uma mensagem de entrada.
Endpoint
postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateTextParâmetros de caminho
model
string
Obrigatório. O nome da Model
ou da TunedModel
que será usada para gerar a conclusão. Exemplos: models/text-bison-001 tunedModels/sentence-translator-u3b7m Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
prompt
object (TextPrompt
)
Obrigatório. O texto de entrada de formato livre dado ao modelo como um comando.
Dado um comando, o modelo vai gerar uma resposta de TextAutocomplete que ele prevê como a conclusão do texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Uma lista de instâncias SafetySetting
exclusivas para bloquear conteúdo não seguro.
que será aplicado no GenerateTextRequest.prompt
e GenerateTextResponse.candidates
. Não pode haver mais de uma configuração para cada tipo de SafetyCategory
. A API vai bloquear todas as solicitações e respostas que não atenderem aos limites definidos por essas configurações. Essa lista substitui as configurações padrão de cada SafetyCategory
especificado nas safetySettings. Se não houver SafetySetting
para um determinado SafetyCategory
fornecido na lista, a API vai usar a configuração de segurança padrão para essa categoria. As categorias de dano HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS são compatíveis com o serviço de texto.
stopSequences[]
string
O conjunto de sequências de caracteres (até 5) que vai interromper a geração de saída. Se especificado, a API vai parar na primeira aparição de uma sequência de paradas. A sequência de parada não será incluída como parte da resposta.
temperature
number
Opcional. Controla a aleatoriedade da saída. Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.temperature
do Model
que retornou a função getModel
.
Os valores podem variar de [0,0, 1,0], inclusive. Um valor mais próximo de 1,0 produz respostas mais variadas e criativas, enquanto um valor próximo de 0,0 normalmente resulta em respostas mais diretas do modelo.
candidateCount
integer
Opcional. Número de respostas geradas a serem retornadas.
Esse valor precisa estar entre [1, 8], inclusive. Se não for definido, o padrão será 1.
maxOutputTokens
integer
Opcional. O número máximo de tokens a serem incluídos em um candidato.
Se não for definido, o padrão será outputTokenLimit especificado na especificação Model
.
topP
number
Opcional. A probabilidade cumulativa máxima de tokens a serem considerados na amostragem.
O modelo usa a amostragem top-k e de núcleo combinada.
Os tokens são classificados com base nas probabilidades atribuídas, de modo que apenas os tokens mais prováveis sejam considerados. A amostragem top-k limita diretamente o número máximo de tokens a serem considerados, enquanto a amostragem do Nucleus limita o número de tokens com base na probabilidade cumulativa.
Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_p
do Model
que retornou a função getModel
.
topK
integer
Opcional. O número máximo de tokens a serem considerados na amostragem.
O modelo usa amostragem combinada de Top-K e Núcleo.
A amostragem top-k considera o conjunto de topK
tokens mais prováveis. O padrão é 40.
Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_k
do Model
que retornou a função getModel
.
Corpo da resposta
Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de GenerateTextResponse
.
Método: models.countTextTokens
Executa o tokenizer de um modelo em um texto e retorna a contagem de tokens.
Endpoint
postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokensParâmetros de caminho
model
string
Obrigatório. O nome do recurso do modelo. Ele serve como um ID para o modelo usar.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
prompt
object (TextPrompt
)
Obrigatório. O texto de entrada em formato livre fornecido ao modelo como um comando.
Corpo da resposta
Uma resposta de models.countTextTokens
.
Ele retorna o tokenCount
do modelo para o prompt
.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
tokenCount
integer
O número de tokens em que model
tokeniza o prompt
.
Sempre não negativo.
Representação JSON |
---|
{ "tokenCount": integer } |
Método: models.generateMessage
Gera uma resposta do modelo com base em uma entrada MessagePrompt
.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessageParâmetros de caminho
model
string
Obrigatório. O nome do modelo a ser usado.
Formato: name=models/{model}
. Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
prompt
object (MessagePrompt
)
Obrigatório. A entrada textual estruturada fornecida ao modelo como um comando.
Com base em uma instrução, o modelo vai retornar o que ele prevê ser a próxima mensagem na discussão.
temperature
number
Opcional. Controla a aleatoriedade da saída.
Os valores podem variar até [0.0,1.0]
. Um valor mais próximo de 1.0
produz respostas mais variadas, enquanto um valor mais próximo de 0.0
normalmente resulta em respostas menos surpreendentes do modelo.
candidateCount
integer
Opcional. O número de mensagens de resposta geradas a serem retornadas.
Esse valor precisa estar entre [1, 8]
. Se não for definido, o padrão será 1
.
topP
number
Opcional. A probabilidade cumulativa máxima dos tokens a serem considerados na amostragem.
O modelo usa amostragem combinada de Top-K e Núcleo.
A amostragem de núcleo considera o menor conjunto de tokens com uma soma de probabilidade de pelo menos topP
.
topK
integer
Opcional. O número máximo de tokens a serem considerados na amostragem.
O modelo usa amostragem combinada de Top-K e Núcleo.
A amostragem top-k considera o conjunto de tokens topK
mais prováveis.
Corpo da resposta
A resposta do modelo.
Isso inclui mensagens candidatas e o histórico de conversas na forma de mensagens ordenadas cronologicamente.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
candidates[]
object (Message
)
Mensagens de resposta candidatas do modelo.
messages[]
object (Message
)
O histórico de conversas usado pelo modelo.
filters[]
object (ContentFilter
)
Um conjunto de metadados de filtragem de conteúdo para o texto do comando e da resposta.
Isso indica quais SafetyCategory
s bloquearam um candidato dessa resposta, o HarmProbability
mais baixo que acionou um bloqueio e a configuração de "HarmThreshold" para essa categoria.
Representação JSON |
---|
{ "candidates": [ { object ( |
Método: models.countMessageTokens
Executa o tokenizer de um modelo em uma string e retorna a contagem de tokens.
Endpoint
postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokensParâmetros de caminho
model
string
Obrigatório. O nome do recurso do modelo. Ele serve como um ID para o modelo usar.
Esse nome precisa corresponder a um nome de modelo retornado pelo método models.list
.
Formato: models/{model}
Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
prompt
object (MessagePrompt
)
Obrigatório. O comando, cuja contagem de tokens será retornada.
Corpo da resposta
Resposta de models.countMessageTokens
.
Ele retorna a tokenCount
do modelo para o prompt
.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
tokenCount
integer
O número de tokens em que o model
tokeniza o prompt
.
Sempre não negativo.
Representação JSON |
---|
{ "tokenCount": integer } |
Método: models.embedText
Gera uma embedding do modelo com base em uma mensagem de entrada.
Endpoint
postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedTextParâmetros de caminho
model
string
Obrigatório. O nome do modelo a ser usado com o formato model=models/{model}. Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
text
string
Opcional. O texto de entrada de formato livre que o modelo vai transformar em um embedding.
Método: models.batchEmbedText
- Endpoint
- Parâmetros de caminho
- Corpo da solicitação
- Corpo da resposta
- Escopos de autorização
- EmbedTextRequest
Gera várias embeddings do modelo com base no texto de entrada em uma chamada síncrona.
Endpoint
postar https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedTextParâmetros de caminho
model
string
Obrigatório. O nome do Model
que será usado para gerar o embedding. Exemplos: models/embedding-gecko-001. Ele tem o formato models/{model}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
texts[]
string
Opcional. Os textos de entrada de formato livre que o modelo vai transformar em um embedding. O limite atual é de 100 textos, acima dos quais um erro será gerado.
requests[]
object (EmbedTextRequest
)
Opcional. Insira solicitações para o lote. Só é possível definir texts
ou requests
.
Corpo da resposta
A resposta a uma EmbedTextRequest.
Se bem-sucedido, o corpo da resposta incluirá dados com a estrutura a seguir:
embeddings[]
object (Embedding
)
Apenas saída. Os embeddings gerados a partir do texto de entrada.
Representação JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Solicitação para receber uma embedding de texto do modelo.
model
string
Obrigatório. O nome do modelo a ser usado com o formato model=models/{model}.
text
string
Opcional. O texto de entrada em formato livre que o modelo vai transformar em um embedding.
Representação JSON |
---|
{ "model": string, "text": string } |
Método: tuningModels.generateText
Gera uma resposta do modelo que recebe uma mensagem de entrada.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateTextParâmetros de caminho
model
string
Obrigatório. O nome da Model
ou da TunedModel
que será usada para gerar a conclusão. Exemplos: models/text-bison-001 relativosModels/sentence-translator-u3b7m. Ele assume o formato tunedModels/{tunedmodel}
.
Corpo da solicitação
O corpo da solicitação contém dados com a seguinte estrutura:
prompt
object (TextPrompt
)
Obrigatório. O texto de entrada de formato livre dado ao modelo como um comando.
Dado um comando, o modelo vai gerar uma resposta de TextAutocomplete que ele prevê como a conclusão do texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Uma lista de instâncias SafetySetting
exclusivas para bloquear conteúdo não seguro.
que será aplicado no GenerateTextRequest.prompt
e GenerateTextResponse.candidates
. Não pode haver mais de uma configuração para cada tipo de SafetyCategory
. A API vai bloquear todas as solicitações e respostas que não atenderem aos limites definidos por essas configurações. Essa lista substitui as configurações padrão de cada SafetyCategory
especificado nas safetySettings. Se não houver SafetySetting
para um determinado SafetyCategory
fornecido na lista, a API vai usar a configuração de segurança padrão para essa categoria. As categorias de dano HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS são compatíveis com o serviço de texto.
stopSequences[]
string
O conjunto de sequências de caracteres (até 5) que vai interromper a geração de saída. Se especificado, a API vai parar na primeira aparição de uma sequência de paradas. A sequência de parada não será incluída como parte da resposta.
temperature
number
Opcional. Controla a aleatoriedade da saída. Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.temperature
do Model
que retornou a função getModel
.
Os valores podem variar de [0,0, 1,0], inclusive. Um valor mais próximo de 1,0 produz respostas mais variadas e criativas, enquanto um valor próximo de 0,0 normalmente resulta em respostas mais diretas do modelo.
candidateCount
integer
Opcional. Número de respostas geradas a serem retornadas.
Esse valor precisa estar entre [1, 8], inclusive. Se não for definido, o padrão será 1.
maxOutputTokens
integer
Opcional. O número máximo de tokens a serem incluídos em um candidato.
Se não for definido, o padrão será outputTokenLimit especificado na especificação Model
.
topP
number
Opcional. A probabilidade cumulativa máxima de tokens a serem considerados na amostragem.
O modelo usa a amostragem top-k e de núcleo combinada.
Os tokens são classificados com base nas probabilidades atribuídas, de modo que apenas os tokens mais prováveis sejam considerados. A amostragem top-k limita diretamente o número máximo de tokens a serem considerados, enquanto a amostragem do Nucleus limita o número de tokens com base na probabilidade cumulativa.
Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_p
do Model
que retornou a função getModel
.
topK
integer
Opcional. O número máximo de tokens a serem considerados na amostragem.
O modelo usa amostragem combinada de Top-K e Núcleo.
A amostragem top-k considera o conjunto de topK
tokens mais prováveis. O padrão é 40.
Observação: o valor padrão varia de acordo com o modelo. Consulte o atributo Model.top_k
do Model
que retornou a função getModel
.
Corpo da resposta
Se a solicitação for bem-sucedida, o corpo da resposta conterá uma instância de GenerateTextResponse
.
ContentFilter
Metadados de filtragem de conteúdo associados ao processamento de uma única solicitação.
O ContentFilter contém um motivo e uma string de suporte opcional. O motivo pode não ser especificado.
reason
enum (BlockedReason
)
O motivo pelo qual o conteúdo foi bloqueado durante o processamento da solicitação.
message
string
Uma string que descreve o comportamento de filtragem com mais detalhes.
Representação JSON |
---|
{
"reason": enum ( |
BlockedReason
Uma lista de motivos pelos quais o conteúdo pode ter sido bloqueado.
Enums | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
O motivo do bloqueio não foi especificado. |
SAFETY |
O conteúdo foi bloqueado pelas configurações de segurança. |
OTHER |
O conteúdo foi bloqueado, mas o motivo não foi categorizado. |
Incorporação
Uma lista de pontos flutuantes que representam o embedding.
value[]
number
Os valores de embedding.
Representação JSON |
---|
{ "value": [ number ] } |
Mensagem
A unidade base do texto estruturado.
Um Message
inclui um author
e o content
do Message
.
O author
é usado para marcar mensagens quando elas são inseridas no modelo como texto.
content
string
Obrigatório. O conteúdo de texto do Message
estruturado.
citationMetadata
object (CitationMetadata
)
Apenas saída. Informações de citação para content
gerado pelo modelo neste Message
.
Se esse Message
tiver sido gerado como saída do modelo, esse campo poderá ser preenchido com informações de atribuição para qualquer texto incluído na content
. Este campo é usado apenas na saída.
Representação JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Todo o texto de entrada estruturado transmitido ao modelo como um comando.
Um MessagePrompt
contém um conjunto estruturado de campos que fornecem contexto para a conversa, exemplos de pares de mensagens de entrada do usuário/saída do modelo que preparam o modelo para responder de maneiras diferentes e o histórico de conversas ou a lista de mensagens que representam os turnos alternados da conversa entre o usuário e o modelo.
context
string
Opcional. Texto que deve ser fornecido ao modelo primeiro para fundamentar a resposta.
Se não estiver vazio, esse context
será fornecido ao modelo antes de examples
e messages
. Ao usar um context
, forneça-o com cada solicitação para manter a continuidade.
Esse campo pode ser uma descrição do comando para o modelo, o que ajuda a fornecer contexto e orientar as respostas. Exemplos: "Traduzir a frase do inglês para o francês" ou "Dada uma declaração, classifique o sentimento como feliz, triste ou neutro".
Qualquer coisa incluída nesse campo terá precedência sobre o histórico de mensagens se o tamanho total da entrada exceder o inputTokenLimit
do modelo e a solicitação de entrada for truncada.
examples[]
object (Example
)
Opcional. Exemplos do que o modelo deve gerar.
Isso inclui a entrada do usuário e a resposta que o modelo deve emular.
Esses examples
são tratados da mesma forma que as mensagens de conversa, exceto pelo fato de terem precedência sobre o histórico em messages
: se o tamanho total da entrada exceder o inputTokenLimit
do modelo, a entrada será truncada. Os itens serão removidos de messages
antes de examples
.
messages[]
object (Message
)
Obrigatório. Um resumo do histórico de conversas recentes em ordem cronológica.
Alterna entre dois autores.
Se o tamanho total da entrada exceder o inputTokenLimit
do modelo, a entrada será truncada: os itens mais antigos serão descartados do messages
.
Exemplo
GenerateTextResponse
A resposta do modelo, incluindo as finalizações de candidato.
candidates[]
object (TextCompletion
)
Respostas candidatas do modelo.
filters[]
object (ContentFilter
)
Um conjunto de metadados de filtragem de conteúdo para o comando e o texto de resposta.
Isso indica quais SafetyCategory
s bloquearam um candidato dessa resposta, o HarmProbability
mais baixo que acionou um bloqueio e a configuração de "HarmThreshold" para essa categoria. Isso indica a menor mudança no SafetySettings
necessária para desbloquear pelo menos uma resposta.
O bloqueio é configurado pelo SafetySettings
na solicitação (ou pelo SafetySettings
padrão da API).
safetyFeedback[]
object (SafetyFeedback
)
Retorna qualquer feedback de segurança relacionado à filtragem de conteúdo.
Representação JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Texto de saída retornado de um modelo.
output
string
Apenas saída. O texto gerado retornado do modelo.
safetyRatings[]
object (SafetyRating
)
Classificações de segurança de uma resposta.
Existe no máximo uma classificação por categoria.
citationMetadata
object (CitationMetadata
)
Apenas saída. Informações de citação para output
gerado pelo modelo neste TextCompletion
.
Esse campo pode ser preenchido com informações de atribuição para qualquer texto incluído no output
.
Representação JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Feedback de segurança para uma solicitação inteira.
Esse campo é preenchido se o conteúdo da entrada e/ou da resposta estiver bloqueado devido a configurações de segurança. O SafetyFeedback pode não existir para todas as categorias de dano. Cada SafetyFeedback retorna as configurações de segurança usadas pela solicitação, bem como a menor HarmProbability permitida para retornar um resultado.
rating
object (SafetyRating
)
Classificação de segurança avaliada pelo conteúdo.
setting
object (SafetySetting
)
Configurações de segurança aplicadas à solicitação.
Representação JSON |
---|
{ "rating": { object ( |