Método: models.generateText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo según un mensaje de entrada.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText
Parámetros de ruta
model
string
Obligatorio. El nombre de Model
o TunedModel
que se usará para generar la finalización. Ejemplos: models/text-bison-001adjustModels/sentence-translator-u3b7m Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.
Si se le proporciona una instrucción, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Una lista de instancias de SafetySetting
únicas para bloquear contenido no seguro.
que se aplicará en GenerateTextRequest.prompt
y GenerateTextResponse.candidates
. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory
. La API bloqueará las instrucciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada para cada SafetyCategory
especificado en SafetySettings. Si no hay un SafetySetting
para un SafetyCategory
determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. El servicio de texto admite las categorías de daños HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
El conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.
temperature
number
Opcional. Controla la aleatorización de la salida. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature
de Model
que mostró la función getModel
.
Los valores pueden variar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor cercano a 0.0 generalmente dará como resultado respuestas más directas del modelo.
candidateCount
integer
Opcional. Cantidad de respuestas generadas para mostrar.
Este valor debe estar entre [1, 8], inclusive. Si no la estableces, el valor predeterminado será 1.
maxOutputTokens
integer
Opcional. La cantidad máxima de tokens que se incluirán en un candidato.
Si no la estableces, se usará el valor outputTokenLimit de forma predeterminada en la especificación Model
.
topP
number
Opcional. Probabilidad acumulativa máxima de los tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
Los tokens se ordenan según sus probabilidades asignadas para que solo se consideren los tokens más probables. El muestreo de Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulada.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p
de Model
que mostró la función getModel
.
topK
integer
Opcional. La cantidad máxima de tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
El muestreo de k superior considera el conjunto de topK
tokens más probables. La configuración predeterminada es 40.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k
de Model
que mostró la función getModel
.
Cuerpo de la respuesta
Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse
.
Método: models.countTextTokens
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Ejecuta el tokenizador de un modelo en un texto y muestra el recuento de tokens.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens
Parámetros de ruta
model
string
Obligatorio. El nombre del recurso del modelo. Esto sirve como un ID para que use el modelo.
Este nombre debe coincidir con el nombre de modelo que muestra el método models.list
.
Formato: models/{model}
Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.
Cuerpo de la respuesta
Una respuesta de models.countTextTokens
.
Muestra el tokenCount
del modelo para el prompt
.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
tokenCount
integer
La cantidad de tokens en los que model
asigna un token a prompt
.
Siempre no es negativo.
Representación JSON |
---|
{ "tokenCount": integer } |
Método: models.generateMessage
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo según una MessagePrompt
de entrada.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage
Parámetros de ruta
model
string
Obligatorio. El nombre del modelo que se usará.
Formato: name=models/{model}
. Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (MessagePrompt
)
Obligatorio. La entrada textual estructurada que se le da al modelo como una instrucción.
Si se le proporciona una instrucción, el modelo devolverá lo que predice que será el siguiente mensaje del debate.
temperature
number
Opcional. Controla la aleatorización de la salida.
Los valores pueden variar en [0.0,1.0]
, inclusive. Un valor más cercano a 1.0
producirá respuestas más variadas, mientras que un valor más cercano a 0.0
generalmente dará como resultado respuestas menos sorprendentes del modelo.
candidateCount
integer
Opcional. La cantidad de mensajes de respuesta generados que se mostrarán.
Este valor debe estar entre [1, 8]
inclusive. Si no la estableces, la configuración predeterminada será 1
.
topP
number
Opcional. Probabilidad acumulativa máxima de los tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
El muestreo de núcleo considera el conjunto más pequeño de tokens cuya suma de probabilidad es al menos topP
.
topK
integer
Opcional. La cantidad máxima de tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
El muestreo de k superior considera el conjunto de topK
tokens más probables.
Cuerpo de la respuesta
La respuesta del modelo.
Esto incluye los mensajes de los candidatos y el historial de conversaciones en forma de mensajes ordenados cronológicamente.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
candidates[]
object (Message
)
Mensajes de respuesta de candidatos del modelo.
messages[]
object (Message
)
El historial de conversaciones que usa el modelo.
filters[]
object (ContentFilter
)
Un conjunto de metadatos de filtrado de contenido para el texto de instrucción y respuesta.
Esto indica qué SafetyCategory
bloquearon a un candidato de esta respuesta, el HarmProbability
más bajo que activó un bloqueo y la configuración HarmThreshold para esa categoría.
Representación JSON |
---|
{ "candidates": [ { object ( |
Método: models.countMessageTokens
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Ejecuta el tokenizador de un modelo en una cadena y muestra el recuento de tokens.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens
Parámetros de ruta
model
string
Obligatorio. El nombre del recurso del modelo. Esto sirve como un ID para que use el modelo.
Este nombre debe coincidir con el nombre de modelo que muestra el método models.list
.
Formato: models/{model}
Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (MessagePrompt
)
Obligatorio. El mensaje, cuyo recuento de tokens se debe mostrar
Cuerpo de la respuesta
Una respuesta de models.countMessageTokens
.
Muestra el tokenCount
del modelo para el prompt
.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
tokenCount
integer
La cantidad de tokens en los que model
asigna un token a prompt
.
Siempre no es negativo.
Representación JSON |
---|
{ "tokenCount": integer } |
Método: models.embedText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una incorporación a partir del modelo a partir de un mensaje de entrada.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText
Parámetros de ruta
model
string
Obligatorio. El nombre del modelo que se usará con el formato model=models/{model}. Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
text
string
Opcional. Texto de entrada de formato libre que el modelo convertirá en una incorporación.
Cuerpo de la respuesta
La respuesta a una EmbedTextRequest.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
embedding
object (Embedding
)
Solo salida. La incorporación generada a partir del texto de entrada.
Representación JSON |
---|
{
"embedding": {
object ( |
Método: models.batchEmbedText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
- EmbedTextRequest
Genera varias incorporaciones a partir del texto de entrada determinado del modelo en una llamada síncrona.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText
Parámetros de ruta
model
string
Obligatorio. El nombre de la Model
que se usará para generar la incorporación. Ejemplos: models/embedding-gecko-001 Toma la forma models/{model}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
texts[]
string
Opcional. Textos de entrada de formato libre que el modelo convertirá en una incorporación. El límite actual es de 100 textos, sobre los cuales se arrojará un error.
requests[]
object (EmbedTextRequest
)
Opcional. Incorporar solicitudes para el lote Solo se puede establecer una de las siguientes propiedades: texts
o requests
.
Cuerpo de la respuesta
La respuesta a una EmbedTextRequest.
Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:
embeddings[]
object (Embedding
)
Solo salida. Las incorporaciones generadas a partir del texto de entrada
Representación JSON |
---|
{
"embeddings": [
{
object ( |
EmbedTextRequest
Solicitud para obtener una incorporación de texto del modelo.
model
string
Obligatorio. El nombre del modelo que se usará con el formato model=models/{model}.
text
string
Opcional. Texto de entrada de formato libre que el modelo convertirá en una incorporación.
Representación JSON |
---|
{ "model": string, "text": string } |
Método: tunnelModels.generateText
- Extremo
- Parámetros de ruta de acceso
- Cuerpo de la solicitud
- Cuerpo de la respuesta
- Permisos de autorización
Genera una respuesta del modelo según un mensaje de entrada.
Extremo
publicación
https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText
Parámetros de ruta
model
string
Obligatorio. El nombre de Model
o TunedModel
que se usará para generar la finalización. Ejemplos: models/text-bison-001adjustModels/sentence-translator-u3b7m Toma la forma tunedModels/{tunedmodel}
.
Cuerpo de la solicitud
El cuerpo de la solicitud contiene datos con la siguiente estructura:
prompt
object (TextPrompt
)
Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.
Si se le proporciona una instrucción, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.
safetySettings[]
object (SafetySetting
)
Opcional. Una lista de instancias de SafetySetting
únicas para bloquear contenido no seguro.
que se aplicará en GenerateTextRequest.prompt
y GenerateTextResponse.candidates
. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory
. La API bloqueará las instrucciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada para cada SafetyCategory
especificado en SafetySettings. Si no hay un SafetySetting
para un SafetyCategory
determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. El servicio de texto admite las categorías de daños HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL, HARM_CATEGORY_DANGEROUS.
stopSequences[]
string
El conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.
temperature
number
Opcional. Controla la aleatorización de la salida. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature
de Model
que mostró la función getModel
.
Los valores pueden variar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor cercano a 0.0 generalmente dará como resultado respuestas más directas del modelo.
candidateCount
integer
Opcional. Cantidad de respuestas generadas para mostrar.
Este valor debe estar entre [1, 8], inclusive. Si no la estableces, el valor predeterminado será 1.
maxOutputTokens
integer
Opcional. La cantidad máxima de tokens que se incluirán en un candidato.
Si no la estableces, se usará el valor outputTokenLimit de forma predeterminada en la especificación Model
.
topP
number
Opcional. Probabilidad acumulativa máxima de los tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
Los tokens se ordenan según sus probabilidades asignadas para que solo se consideren los tokens más probables. El muestreo de Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulada.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p
de Model
que mostró la función getModel
.
topK
integer
Opcional. La cantidad máxima de tokens que se deben tener en cuenta durante el muestreo.
El modelo usa muestreo de núcleo y k superior combinados.
El muestreo de k superior considera el conjunto de topK
tokens más probables. La configuración predeterminada es 40.
Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k
de Model
que mostró la función getModel
.
Cuerpo de la respuesta
Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse
.
ContentFilter
Metadatos de filtrado de contenido asociados con el procesamiento de una sola solicitud.
ContentFilter contiene un motivo y una cadena de respaldo opcional. Es posible que no se especifique el motivo.
reason
enum (BlockedReason
)
El motivo por el que se bloqueó el contenido durante el procesamiento de la solicitud.
message
string
Es una cadena que describe el comportamiento del filtrado con más detalle.
Representación JSON |
---|
{
"reason": enum ( |
BlockedReason
Una lista de los motivos por los que posiblemente se bloqueó el contenido.
Enumeraciones | |
---|---|
BLOCKED_REASON_UNSPECIFIED |
No se especificó un motivo de bloqueo. |
SAFETY |
La configuración de seguridad bloqueó el contenido. |
OTHER |
Se bloqueó el contenido, pero el motivo no está clasificado. |
Incorporación
Una lista de números de punto flotante que representan la incorporación.
value[]
number
Los valores de incorporación.
Representación JSON |
---|
{ "value": [ number ] } |
Mensaje
La unidad base de texto estructurado.
Un Message
incluye un author
y el content
del Message
.
El author
se usa para etiquetar los mensajes cuando se ingresan al modelo como texto.
author
string
Opcional. Es el autor de este mensaje.
Esto sirve como clave para etiquetar el contenido de este mensaje cuando se ingresa al modelo como texto.
El autor puede ser cualquier cadena alfanumérica.
content
string
Obligatorio. Es el contenido de texto del Message
estructurado.
citationMetadata
object (CitationMetadata
)
Solo salida. Información de cita para el content
generado por el modelo en este Message
.
Si este Message
se generó como resultado del modelo, este campo se puede propagar con información de atribución para cualquier texto incluido en content
. Este campo solo se usa en la salida.
Representación JSON |
---|
{
"author": string,
"content": string,
"citationMetadata": {
object ( |
MessagePrompt
Todo el texto de entrada estructurado que se pasa al modelo como una instrucción.
Un MessagePrompt
contiene un conjunto estructurado de campos que proporcionan contexto para la conversación, ejemplos de pares de mensajes de entrada del usuario/salida del modelo que preparan el modelo para responder de diferentes maneras y el historial de conversaciones o una lista de mensajes que representan los turnos alternas de la conversación entre el usuario y el modelo.
context
string
Opcional. Texto que se debe proporcionar primero al modelo para fundamentar la respuesta.
Si no está vacío, este context
se le entregará al modelo primero antes de examples
y messages
. Cuando uses un context
, asegúrate de proporcionarlo con todas las solicitudes para mantener la continuidad.
Este campo puede ser una descripción de tu instrucción al modelo para ayudar a proporcionar contexto y guiar las respuestas. Ejemplos: "Traducir la frase de inglés a francés". o “Dada una declaración, clasifica la opinión como feliz, triste o neutral”.
Todo lo que se incluya en este campo tendrá prioridad sobre el historial de mensajes si el tamaño total de entrada supera el inputTokenLimit
del modelo y la solicitud de entrada se trunca.
examples[]
object (Example
)
Opcional. Ejemplos de lo que debería generar el modelo.
Esto incluye las entradas del usuario y la respuesta que el modelo debe emular.
Estos examples
se tratan de manera idéntica a los mensajes de conversación, excepto que tienen prioridad sobre el historial de messages
. Si el tamaño total de entrada supera el inputTokenLimit
del modelo, se truncará la entrada. Se perderán los artículos de messages
antes del examples
.
messages[]
object (Message
)
Obligatorio. Una instantánea del historial de conversaciones recientes ordenada cronológicamente.
Los turnos alternan entre dos autores.
Si el tamaño total de entrada supera el inputTokenLimit
del modelo, la entrada se truncará: los elementos más antiguos se quitarán de messages
.
Ejemplo
Un ejemplo de entrada/salida que se usa para instruir al modelo.
Demuestra cómo el modelo debe responder o dar formato a su respuesta.
input
object (Message
)
Obligatorio. Ejemplo de un objeto Message
de entrada del usuario.
output
object (Message
)
Obligatorio. Un ejemplo de lo que el modelo debería generar según la entrada.
GenerateTextResponse
La respuesta del modelo, incluidas las finalizaciones de candidatos.
candidates[]
object (TextCompletion
)
Respuestas de los candidatos del modelo.
filters[]
object (ContentFilter
)
Un conjunto de metadatos de filtrado de contenido para el texto de instrucción y respuesta.
Esto indica qué SafetyCategory
bloquearon a un candidato de esta respuesta, el HarmProbability
más bajo que activó un bloqueo y la configuración HarmThreshold para esa categoría. Esto indica el cambio más pequeño en SafetySettings
que sería necesario para desbloquear al menos 1 respuesta.
SafetySettings
configura el bloqueo en la solicitud (o el SafetySettings
predeterminado de la API).
safetyFeedback[]
object (SafetyFeedback
)
Muestra los comentarios de seguridad relacionados con el filtro de contenido.
Representación JSON |
---|
{ "candidates": [ { object ( |
TextCompletion
Texto de salida que muestra un modelo.
output
string
Solo salida. El texto generado que muestra el modelo.
safetyRatings[]
object (SafetyRating
)
Calificaciones de la seguridad de las respuestas.
Hay, como máximo, una calificación por categoría.
citationMetadata
object (CitationMetadata
)
Solo salida. Información de cita para el output
generado por el modelo en este TextCompletion
.
Este campo puede completarse con información de atribución de cualquier texto incluido en output
.
Representación JSON |
---|
{ "output": string, "safetyRatings": [ { object ( |
SafetyFeedback
Comentarios sobre seguridad para una solicitud completa.
Este campo se completa si se bloquea el contenido de la entrada o la respuesta debido a la configuración de seguridad. Es posible que SafetyFeedback no exista para todas las HarmCategory. Cada SafetyFeedback devolverá la configuración de seguridad que se usó en la solicitud, así como la baja probabilidad de daños que se debería permitir para devolver un resultado.
rating
object (SafetyRating
)
Calificación de seguridad evaluada a partir del contenido.
setting
object (SafetySetting
)
La configuración de seguridad que se aplicó a la solicitud.
Representación JSON |
---|
{ "rating": { object ( |