Método: models.generateText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo a partir de un mensaje de entrada.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateText
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre de Model
o TunedModel
que se usará para generar la finalización. Ejemplos: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Es el texto de entrada de formato libre que se le proporciona al modelo como instrucción.
Dado un mensaje, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Es una lista de instancias SafetySetting
únicas para bloquear contenido no seguro.
que se aplicará en GenerateTextRequest.prompt
y GenerateTextResponse.candidates
. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory
. La API bloqueará las indicaciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada de cada SafetyCategory
especificada en safetySettings. Si no hay un SafetySetting
para un SafetyCategory
determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. Las categorías de daño HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL y HARM_CATEGORY_DANGEROUS son compatibles con el servicio de texto.
stopSequences[]
string
Es el conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.
temperature
number
Opcional. Controla la aleatoriedad del resultado. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature
de Model
que muestra la función getModel
.
Los valores pueden oscilar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor más cercano a 0.0 suele generar respuestas más directas del modelo.
candidateCount
integer
Opcional. Cantidad de respuestas generadas que se mostrarán.
Este valor debe estar entre [1, 8], inclusive. Si no se establece, el valor predeterminado será 1.
maxOutputTokens
integer
Opcional. Es la cantidad máxima de tokens que se pueden incluir en un candidato.
Si no se establece, se establecerá de forma predeterminada en outputTokenLimit especificado en la especificación de Model
.
topP
number
Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.
El modelo usa el muestreo combinado de Top-K y de núcleos.
Los tokens se ordenan en función de las probabilidades asignadas para que solo se consideren los más probables. El muestreo Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulativa.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p
de Model
que muestra la función getModel
.
topK
integer
Opcional. Es la cantidad máxima de tokens que se deben tener en cuenta cuando se toma una muestra.
El modelo usa el muestreo combinado de Top-K y de núcleos.
El muestreo Top-K considera el conjunto de topK
tokens más probables. La configuración predeterminada es 40.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k
de Model
que muestra la función getModel
.
Cuerpo de la respuesta
Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse
.
Método: models.countTextTokens
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Ejecuta el analizador de un modelo en un texto y muestra el recuento de tokens.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countTextTokens
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre del recurso del modelo. Este ID sirve como ID para que lo use el modelo.
Este nombre debe coincidir con un nombre de modelo que devuelva el método models.list
.
Formato: models/{model}
Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Es el texto de entrada de formato libre que se le proporciona al modelo como instrucción.
Cuerpo de la respuesta
Una respuesta de models.countTextTokens
.
Muestra el tokenCount
del modelo para el prompt
.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
tokenCount
integer
Es la cantidad de tokens en los que model
segmenta prompt
.
Siempre es un número no negativo.
Representación JSON |
---|
{ "tokenCount": integer } |
Método: models.generateMessage
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo a partir de una entrada MessagePrompt
.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:generateMessage
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. El nombre del modelo que se usará.
Formato: name=models/{model}
. Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (MessagePrompt
)
Obligatorio. Es la entrada textual estructurada que se le proporciona al modelo como instrucción.
Dado un mensaje, el modelo mostrará lo que predice que es el siguiente mensaje en el debate.
temperature
number
Opcional. Controla la aleatoriedad del resultado.
Los valores pueden oscilar entre [0.0,1.0]
inclusive. Un valor más cercano a 1.0
producirá respuestas más variadas, mientras que un valor más cercano a 0.0
suele generar respuestas menos sorprendentes del modelo.
candidateCount
integer
Opcional. Es la cantidad de mensajes de respuesta generados que se mostrarán.
Este valor debe estar entre [1, 8]
inclusive. Si no se establece, el valor predeterminado es 1
.
topP
number
Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.
El modelo usa el muestreo combinado de Top-K y de núcleos.
El muestreo de núcleo considera el conjunto más pequeño de tokens cuya suma de probabilidades es de al menos topP
.
topK
integer
Opcional. Es la cantidad máxima de tokens que se deben tener en cuenta cuando se toma una muestra.
El modelo usa el muestreo combinado de Top-K y de núcleos.
El muestreo Top-K considera el conjunto de topK
tokens más probables.
Cuerpo de la respuesta
La respuesta del modelo.
Esto incluye los mensajes candidatos y el historial de conversaciones en forma de mensajes ordenados cronológicamente.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
candidates[]
object (Message
)
Mensajes de respuesta del modelo candidato.
messages[]
object (Message
)
Es el historial de conversación que usa el modelo.
filters[]
object (ContentFilter
)
Un conjunto de metadatos de filtrado de contenido para el texto de la instrucción y la respuesta.
Esto indica qué SafetyCategory
bloquearon un candidato de esta respuesta, el HarmProbability
más bajo que activó un bloqueo y la configuración de HarmThreshold para esa categoría.
Representación JSON |
---|
{ "candidates": [ { object ( |
Método: models.countMessageTokens
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Ejecuta el analizador de un modelo en una cadena y muestra el recuento de tokens.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:countMessageTokens
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre del recurso del modelo. Este ID sirve como ID para que lo use el modelo.
Este nombre debe coincidir con un nombre de modelo que devuelva el método models.list
.
Formato: models/{model}
Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (MessagePrompt
)
Obligatorio. La instrucción cuyo recuento de tokens se mostrará.
Cuerpo de la respuesta
Una respuesta de models.countMessageTokens
.
Muestra el tokenCount
del modelo para el prompt
.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
tokenCount
integer
Es la cantidad de tokens en los que model
segmenta prompt
.
Siempre es un número no negativo.
Representación JSON |
---|
{ "tokenCount": integer } |
Método: models.embedText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una incorporación del modelo a partir de un mensaje de entrada.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:embedText
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre del modelo que se usará con el formato model=models/{model}. Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
text
string
Opcional. Es el texto de entrada de formato libre que el modelo convertirá en una incorporación.
Cuerpo de la respuesta
La respuesta a una EmbedTextRequest.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
embedding
object (Embedding
)
Solo salida. La incorporación generada a partir del texto de entrada.
Representación JSON |
---|
{
"embedding": {
object ( |
Método: models.batchEmbedText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
- EmbedTextRequest
Genera varias incorporaciones del modelo dado el texto de entrada en una llamada síncrona.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=models /*}:batchEmbedText
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre del Model
que se usará para generar la incorporación. Ejemplos: models/embedding-gecko-001. Tiene el formato models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
texts[]
string
Opcional. Los textos de entrada de formato libre que el modelo convertirá en una incorporación. El límite actual es de 100 textos, por lo que se arrojará un error.
requests[]
object (EmbedTextRequest
)
Opcional. Incorpora solicitudes para el lote. Solo se puede establecer una de texts
o requests
.
Cuerpo de la respuesta
La respuesta a una EmbedTextRequest.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
embeddings[]
object (Embedding
)
Solo salida. Las incorporaciones generadas a partir del texto de entrada.
Representación JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Solicita obtener una incorporación de texto del modelo.
model
string
Obligatorio. Es el nombre del modelo que se usará con el formato model=models/{model}.
text
string
Opcional. Es el texto de entrada de formato libre que el modelo convertirá en una incorporación.
Representación JSON |
---|
{ "model": string, "text": string } |
Método: tunedModels.generateText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo a partir de un mensaje de entrada.
Extremo
publicaciónhttps: / /generativelanguage.googleapis.com /v1beta /{model=tunedModels /*}:generateText
La URL usa la sintaxis de la transcodificación gRPC.
Parámetros de ruta
model
string
Obligatorio. Es el nombre de Model
o TunedModel
que se usará para generar la finalización. Ejemplos: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tiene el formato tunedModels/{tunedmodel}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Es el texto de entrada de formato libre que se le proporciona al modelo como instrucción.
Dado un mensaje, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Es una lista de instancias SafetySetting
únicas para bloquear contenido no seguro.
que se aplicará en GenerateTextRequest.prompt
y GenerateTextResponse.candidates
. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory
. La API bloqueará las indicaciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada de cada SafetyCategory
especificada en safetySettings. Si no hay un SafetySetting
para un SafetyCategory
determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. Las categorías de daño HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL y HARM_CATEGORY_DANGEROUS son compatibles con el servicio de texto.
stopSequences[]
string
Es el conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.
temperature
number
Opcional. Controla la aleatoriedad del resultado. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature
de Model
que muestra la función getModel
.
Los valores pueden oscilar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor más cercano a 0.0 suele generar respuestas más directas del modelo.
candidateCount
integer
Opcional. Cantidad de respuestas generadas que se mostrarán.
Este valor debe estar entre [1, 8], inclusive. Si no se establece, el valor predeterminado será 1.
maxOutputTokens
integer
Opcional. Es la cantidad máxima de tokens que se pueden incluir en un candidato.
Si no se establece, se establecerá de forma predeterminada en outputTokenLimit especificado en la especificación de Model
.
topP
number
Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.
El modelo usa el muestreo combinado de Top-K y de núcleos.
Los tokens se ordenan en función de las probabilidades asignadas para que solo se consideren los más probables. El muestreo Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulativa.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p
de Model
que muestra la función getModel
.
topK
integer
Opcional. Es la cantidad máxima de tokens que se deben tener en cuenta cuando se toma una muestra.
El modelo usa el muestreo combinado de Top-K y de núcleos.
El muestreo Top-K considera el conjunto de topK
tokens más probables. La configuración predeterminada es 40.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k
de Model
que muestra la función getModel
.
Cuerpo de la respuesta
Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse
.
ContentFilter
Metadatos de filtrado de contenido asociados con el procesamiento de una sola solicitud.
ContentFilter contiene un motivo y una cadena de respaldo opcional. Es posible que el motivo no se especifique.
reason
enum (BlockedReason
)
El motivo por el que se bloqueó el contenido durante el procesamiento de la solicitud
message
string
Es una cadena que describe el comportamiento del filtrado con más detalle.
Representación JSON |
---|
{
"reason": enum ( |
BlockedReason
Una lista de los motivos por los que se pudo haber bloqueado el contenido.
Enumeraciones | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
No se especificó un motivo de bloqueo. |
SAFETY |
La configuración de seguridad bloqueó el contenido. |
OTHER |
Se bloqueó el contenido, pero el motivo no está categorizado. |
Embedding
Una lista de números de punto flotante que representan la incorporación.
value[]
number
Los valores de incorporación.
Representación JSON |
---|
{ "value": [ number ] } |
Mensaje
Es la unidad base del texto estructurado.
Un Message
incluye un author
y el content
del Message
.
author
se usa para etiquetar mensajes cuando se ingresan al modelo como texto.
content
string
Obligatorio. Es el contenido de texto del Message
estructurado.
citationMetadata
object (CitationMetadata
)
Solo salida. Información de cita para el content
generado por el modelo en este Message
.
Si este Message
se generó como resultado del modelo, este campo puede propagarse con información de atribución para cualquier texto incluido en content
. Este campo solo se usa en la salida.
Representación JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Es todo el texto de entrada estructurado que se pasa al modelo como una instrucción.
Un MessagePrompt
contiene un conjunto estructurado de campos que proporcionan contexto para la conversación, ejemplos de pares de mensajes de entrada del usuario/salida del modelo que preparan al modelo para responder de diferentes maneras y el historial de la conversación o la lista de mensajes que representan los turnos alternos de la conversación entre el usuario y el modelo.
context
string
Opcional. Texto que se debe proporcionar primero al modelo para fundamentar la respuesta.
Si no está vacío, este context
se le dará al modelo antes que examples
y messages
. Cuando uses un context
, asegúrate de proporcionarlo con cada solicitud para mantener la continuidad.
Este campo puede ser una descripción de tu instrucción para el modelo que ayude a proporcionar contexto y guiar las respuestas. Ejemplos: "Traduce la frase del inglés al francés" o "Dada una declaración, clasifica el sentimiento como feliz, triste o neutral".
Todo lo que se incluya en este campo tendrá prioridad sobre el historial de mensajes si el tamaño total de la entrada supera el inputTokenLimit
del modelo y se trunca la solicitud de entrada.
examples[]
object (Example
)
Opcional. Ejemplos de lo que debería generar el modelo.
Esto incluye la entrada del usuario y la respuesta que el modelo debe emular.
Estos examples
se tratan de la misma manera que los mensajes de conversación, excepto que tienen prioridad sobre el historial en messages
: Si el tamaño total de la entrada supera el inputTokenLimit
del modelo, la entrada se truncará. Los elementos se eliminarán de messages
antes de examples
.
messages[]
object (Message
)
Obligatorio. Es un resumen del historial de conversaciones recientes ordenado cronológicamente.
Los turnos se alternan entre dos autores.
Si el tamaño total de la entrada supera el inputTokenLimit
del modelo, la entrada se truncará: los elementos más antiguos se descartarán de messages
.
Ejemplo
Un ejemplo de entrada/salida que se usa para instruir al modelo.
Demuestra cómo debe responder el modelo o cómo debe formatear su respuesta.
input
object (Message
)
Obligatorio. Un ejemplo de una entrada Message
del usuario.
output
object (Message
)
Obligatorio. Un ejemplo de lo que el modelo debe mostrar según la entrada.
GenerateTextResponse
La respuesta del modelo, incluidas las terminaciones candidatas
candidates[]
object (TextCompletion
)
Respuestas candidatas del modelo.
filters[]
object (ContentFilter
)
Un conjunto de metadatos de filtrado de contenido para el texto de la instrucción y la respuesta.
Esto indica qué SafetyCategory
bloquearon un candidato de esta respuesta, el HarmProbability
más bajo que activó un bloqueo y la configuración de HarmThreshold para esa categoría. Esto indica el cambio más pequeño en el SafetySettings
que sería necesario para desbloquear al menos 1 respuesta.
El bloqueo lo configura el SafetySettings
en la solicitud (o el SafetySettings
predeterminado de la API).
safetyFeedback[]
object (SafetyFeedback
)
Muestra cualquier comentario de seguridad relacionado con el filtrado de contenido.
Representación JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Es el texto de salida que se muestra desde un modelo.
output
string
Solo salida. El texto generado que muestra el modelo.
safetyRatings[]
object (SafetyRating
)
Son calificaciones de la seguridad de una respuesta.
Hay como máximo una calificación por categoría.
citationMetadata
object (CitationMetadata
)
Solo salida. Información de cita para el output
generado por el modelo en este TextCompletion
.
Este campo puede propagarse con información de atribución para cualquier texto incluido en output
.
Representación JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Comentarios de seguridad para toda una solicitud
Este campo se completa si el contenido de la entrada o la respuesta está bloqueado debido a la configuración de seguridad. Es posible que SafetyFeedback no exista para cada HarmCategory. Cada SafetyFeedback mostrará la configuración de seguridad que usa la solicitud, así como la HarmProbability más baja que se debe permitir para mostrar un resultado.
rating
object (SafetyRating
)
Calificación de seguridad evaluada a partir del contenido
setting
object (SafetySetting
)
Configuración de seguridad aplicada a la solicitud
Representación JSON |
---|
{ "rating": { object ( |