PaLM (decommissioned)

Método: models.generateText

Genera una respuesta del modelo a partir de un mensaje de entrada.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateText

Parámetros de ruta

model string

Obligatorio. El nombre de Model o TunedModel que se usará para generar la finalización. Ejemplos: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tiene el formato models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
prompt object (TextPrompt)

Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.

Dado un mensaje, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.

safetySettings[] object (SafetySetting)

Opcional. Una lista de instancias de SafetySetting únicas para bloquear contenido no seguro.

que se aplicará en GenerateTextRequest.prompt y GenerateTextResponse.candidates. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory. La API bloqueará las indicaciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada para cada SafetyCategory especificado en SafetySettings. Si no hay un SafetySetting para un SafetyCategory determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. Las categorías de daño HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL y HARM_CATEGORY_DANGEROUS son compatibles con el servicio de texto.

stopSequences[] string

Es el conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.

temperature number

Opcional. Controla la aleatoriedad del resultado. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature de Model que mostró la función getModel.

Los valores pueden variar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor cercano a 0.0 generalmente dará como resultado respuestas más directas del modelo.

candidateCount integer

Opcional. Cantidad de respuestas generadas para mostrar.

Este valor debe estar entre [1, 8], inclusive. Si no la estableces, el valor predeterminado será 1.

maxOutputTokens integer

Opcional. La cantidad máxima de tokens que se incluirán en un candidato.

Si no la estableces, se establecerá de forma predeterminada el valor outputTokenLimit que se especifica en la especificación Model.

topP number

Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.

El modelo usa muestreo de núcleo y k superior combinados.

Los tokens se ordenan en función de las probabilidades asignadas para que solo se consideren los más probables. El muestreo Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulativa.

Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p de Model que muestra la función getModel.

topK integer

Opcional. Es la cantidad máxima de tokens que se deben tener en cuenta cuando se toma una muestra.

El modelo usa muestreo de núcleo y k superior combinados.

El muestreo de k superior considera el conjunto de topK tokens más probables. La configuración predeterminada es 40.

Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k de Model que muestra la función getModel.

Cuerpo de la respuesta

Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse.

Método: models.countTextTokens

Ejecuta el analizador de un modelo en un texto y muestra el recuento de tokens.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countTextTokens

Parámetros de ruta

model string

Obligatorio. Es el nombre del recurso del modelo. Esto sirve como un ID para que use el modelo.

Este nombre debe coincidir con el nombre de modelo que muestra el método models.list.

Formato: models/{model} Toma la forma models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
prompt object (TextPrompt)

Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.

Cuerpo de la respuesta

Una respuesta de models.countTextTokens.

Muestra el tokenCount del modelo para el prompt.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
tokenCount integer

Es la cantidad de tokens en los que model segmenta prompt.

Siempre es un número no negativo.

Representación JSON
{
  "tokenCount": integer
}

Método: models.generateMessage

Genera una respuesta del modelo según una MessagePrompt de entrada.

Extremo

post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateMessage

Parámetros de ruta

model string

Obligatorio. El nombre del modelo que se usará.

Formato: name=models/{model}. Toma la forma models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
prompt object (MessagePrompt)

Obligatorio. Es la entrada textual estructurada que se le proporciona al modelo como instrucción.

Si se le proporciona una instrucción, el modelo devolverá lo que predice que será el siguiente mensaje del debate.

temperature number

Opcional. Controla la aleatorización de la salida.

Los valores pueden oscilar entre [0.0,1.0] inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas, mientras que un valor más cercano a 0.0 suele generar respuestas menos sorprendentes del modelo.

candidateCount integer

Opcional. Es la cantidad de mensajes de respuesta generados que se mostrarán.

Este valor debe estar entre [1, 8] inclusive. Si no se establece, el valor predeterminado es 1.

topP number

Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.

El modelo usa muestreo de núcleo y k superior combinados.

El muestreo de núcleo considera el conjunto más pequeño de tokens cuya suma de probabilidades es de al menos topP.

topK integer

Opcional. La cantidad máxima de tokens que se deben tener en cuenta durante el muestreo.

El modelo usa muestreo de núcleo y k superior combinados.

El muestreo de k superior considera el conjunto de topK tokens más probables.

Cuerpo de la respuesta

La respuesta del modelo.

Esto incluye los mensajes candidatos y el historial de conversaciones en forma de mensajes ordenados cronológicamente.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
candidates[] object (Message)

Mensajes de respuesta de candidatos del modelo.

messages[] object (Message)

Es el historial de conversaciones que usa el modelo.

filters[] object (ContentFilter)

Un conjunto de metadatos de filtrado de contenido para el texto de instrucción y respuesta.

Esto indica qué SafetyCategory bloquearon un candidato de esta respuesta, el HarmProbability más bajo que activó un bloqueo y la configuración de HarmThreshold para esa categoría.

Representación JSON
{
  "candidates": [
    {
      object (Message)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ]
}

Método: models.countMessageTokens

Ejecuta el analizador de un modelo en una cadena y muestra el recuento de tokens.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=models/*}:countMessageTokens

Parámetros de ruta

model string

Obligatorio. Es el nombre del recurso del modelo. Esto sirve como un ID para que use el modelo.

Este nombre debe coincidir con el nombre de modelo que muestra el método models.list.

Formato: models/{model} Toma la forma models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
prompt object (MessagePrompt)

Obligatorio. El mensaje, cuyo recuento de tokens se debe mostrar

Cuerpo de la respuesta

Una respuesta de models.countMessageTokens.

Muestra el tokenCount del modelo para el prompt.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
tokenCount integer

Es la cantidad de tokens en los que model segmenta prompt.

Siempre es un número no negativo.

Representación JSON
{
  "tokenCount": integer
}

Método: models.embedText

Genera una incorporación a partir del modelo a partir de un mensaje de entrada.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=models/*}:embedText

Parámetros de ruta

model string

Obligatorio. El nombre del modelo que se usará con el formato model=models/{model}. Tiene el formato models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
text string

Opcional. Es el texto de entrada de formato libre que el modelo convertirá en una incorporación.

Cuerpo de la respuesta

La respuesta a una EmbedTextRequest.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
embedding object (Embedding)

Solo salida. La incorporación generada a partir del texto de entrada.

Representación JSON
{
  "embedding": {
    object (Embedding)
  }
}

Método: models.batchEmbedText

Genera varias incorporaciones a partir del texto de entrada determinado del modelo en una llamada síncrona.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=models/*}:batchEmbedText

Parámetros de ruta

model string

Obligatorio. Es el nombre del Model que se usará para generar la incorporación. Ejemplos: models/embedding-gecko-001 Toma la forma models/{model}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
texts[] string

Opcional. Textos de entrada de formato libre que el modelo convertirá en una incorporación. El límite actual es de 100 textos, por lo que se arrojará un error.

requests[] object (EmbedTextRequest)

Opcional. Incorporar solicitudes para el lote Solo se puede establecer una de las siguientes propiedades: texts o requests.

Cuerpo de la respuesta

La respuesta a una EmbedTextRequest.

Si se ejecuta correctamente, el cuerpo de la respuesta contendrá datos con la siguiente estructura:

Campos
embeddings[] object (Embedding)

Solo salida. Las incorporaciones generadas a partir del texto de entrada

Representación JSON
{
  "embeddings": [
    {
      object (Embedding)
    }
  ]
}

EmbedTextRequest

Solicitud para obtener una incorporación de texto del modelo.

Campos
model string

Obligatorio. Es el nombre del modelo que se usará con el formato model=models/{model}.

text string

Opcional. Es el texto de entrada de formato libre que el modelo convertirá en una incorporación.

Representación JSON
{
  "model": string,
  "text": string
}

Método: tunnelModels.generateText

Genera una respuesta del modelo a partir de un mensaje de entrada.

Extremo

publicación https://generativelanguage.googleapis.com/v1beta/{model=tunedModels/*}:generateText

Parámetros de ruta

model string

Obligatorio. El nombre de Model o TunedModel que se usará para generar la finalización. Ejemplos: models/text-bison-001 tunedModels/sentence-translator-u3b7m Tiene el formato tunedModels/{tunedmodel}.

Cuerpo de la solicitud

El cuerpo de la solicitud contiene datos con la siguiente estructura:

Campos
prompt object (TextPrompt)

Obligatorio. Texto de entrada de formato libre que se le da al modelo como instrucción.

Dado un mensaje, el modelo generará una respuesta de TextCompletion que predice como la finalización del texto de entrada.

safetySettings[] object (SafetySetting)

Opcional. Una lista de instancias de SafetySetting únicas para bloquear contenido no seguro.

que se aplicará en GenerateTextRequest.prompt y GenerateTextResponse.candidates. No debe haber más de un parámetro de configuración para cada tipo de SafetyCategory. La API bloqueará las indicaciones y respuestas que no cumplan con los umbrales establecidos por esta configuración. Esta lista anula la configuración predeterminada para cada SafetyCategory especificado en SafetySettings. Si no hay un SafetySetting para un SafetyCategory determinado proporcionado en la lista, la API usará la configuración de seguridad predeterminada para esa categoría. Las categorías de daño HARM_CATEGORY_DEROGATORY, HARM_CATEGORY_TOXICITY, HARM_CATEGORY_VIOLENCE, HARM_CATEGORY_SEXUAL, HARM_CATEGORY_MEDICAL y HARM_CATEGORY_DANGEROUS son compatibles con el servicio de texto.

stopSequences[] string

Es el conjunto de secuencias de caracteres (hasta 5) que detendrán la generación de resultados. Si se especifica, la API se detendrá en la primera aparición de una secuencia de detención. La secuencia de detención no se incluirá como parte de la respuesta.

temperature number

Opcional. Controla la aleatoriedad del resultado. Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.temperature de Model que mostró la función getModel.

Los valores pueden variar entre [0.0,1.0], inclusive. Un valor más cercano a 1.0 producirá respuestas más variadas y creativas, mientras que un valor cercano a 0.0 generalmente dará como resultado respuestas más directas del modelo.

candidateCount integer

Opcional. Cantidad de respuestas generadas para mostrar.

Este valor debe estar entre [1, 8], inclusive. Si no la estableces, el valor predeterminado será 1.

maxOutputTokens integer

Opcional. La cantidad máxima de tokens que se incluirán en un candidato.

Si no la estableces, se establecerá de forma predeterminada el valor outputTokenLimit que se especifica en la especificación Model.

topP number

Opcional. Es la probabilidad acumulativa máxima de los tokens que se deben tener en cuenta cuando se realiza el muestreo.

El modelo usa muestreo de núcleo y k superior combinados.

Los tokens se ordenan en función de las probabilidades asignadas para que solo se consideren los más probables. El muestreo Top-K limita directamente la cantidad máxima de tokens que se deben considerar, mientras que el muestreo de Nucleus limita la cantidad de tokens en función de la probabilidad acumulativa.

Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_p de Model que muestra la función getModel.

topK integer

Opcional. Es la cantidad máxima de tokens que se deben tener en cuenta cuando se toma una muestra.

El modelo usa muestreo de núcleo y k superior combinados.

El muestreo de k superior considera el conjunto de topK tokens más probables. La configuración predeterminada es 40.

Nota: El valor predeterminado varía según el modelo. Consulta el atributo Model.top_k de Model que muestra la función getModel.

Cuerpo de la respuesta

Si se ejecuta de forma correcta, el cuerpo de la respuesta contiene una instancia de GenerateTextResponse.

ContentFilter

Metadatos de filtrado de contenido asociados con el procesamiento de una sola solicitud.

ContentFilter contiene un motivo y una cadena de respaldo opcional. Es posible que el motivo no se especifique.

Campos
reason enum (BlockedReason)

El motivo por el que se bloqueó el contenido durante el procesamiento de la solicitud.

message string

Es una cadena que describe el comportamiento del filtrado con más detalle.

Representación JSON
{
  "reason": enum (BlockedReason),
  "message": string
}

BlockedReason

Una lista de los motivos por los que posiblemente se bloqueó el contenido.

Enumeraciones
BLOCKED_REASON_UNSPECIFIED No se especificó un motivo de bloqueo.
SAFETY La configuración de seguridad bloqueó el contenido.
OTHER Se bloqueó el contenido, pero el motivo no está categorizado.

Embedding

Una lista de números de punto flotante que representan la incorporación.

Campos
value[] number

Los valores de incorporación.

Representación JSON
{
  "value": [
    number
  ]
}

Mensaje

Es la unidad base del texto estructurado.

Un Message incluye un author y el content del Message.

author se usa para etiquetar mensajes cuando se ingresan al modelo como texto.

Campos
author string

Opcional. Es el autor de este mensaje.

Esta clave sirve para etiquetar el contenido de este mensaje cuando se le pasa al modelo como texto.

El autor puede ser cualquier cadena alfanumérica.

content string

Obligatorio. Es el contenido de texto del Message estructurado.

citationMetadata object (CitationMetadata)

Solo salida. Información de cita para el content generado por el modelo en este Message.

Si este Message se generó como resultado del modelo, este campo puede propagarse con información de atribución para cualquier texto incluido en content. Este campo solo se usa en la salida.

Representación JSON
{
  "author": string,
  "content": string,
  "citationMetadata": {
    object (CitationMetadata)
  }
}

MessagePrompt

Todo el texto de entrada estructurado que se pasa al modelo como una instrucción.

Un MessagePrompt contiene un conjunto estructurado de campos que proporcionan contexto para la conversación, ejemplos de pares de mensajes de entrada del usuario/salida del modelo que preparan el modelo para responder de diferentes maneras y el historial de conversaciones o una lista de mensajes que representan los turnos alternas de la conversación entre el usuario y el modelo.

Campos
context string

Opcional. Texto que se debe proporcionar primero al modelo para fundamentar la respuesta.

Si no está vacío, este context se le dará al modelo antes que examples y messages. Cuando uses un context, asegúrate de proporcionarlo con todas las solicitudes para mantener la continuidad.

Este campo puede ser una descripción de tu instrucción para el modelo que ayude a proporcionar contexto y guiar las respuestas. Ejemplos: "Traducir la frase de inglés a francés". o “Dada una declaración, clasifica la opinión como feliz, triste o neutral”.

Todo lo que se incluya en este campo tendrá prioridad sobre el historial de mensajes si el tamaño total de la entrada supera el inputTokenLimit del modelo y se trunca la solicitud de entrada.

examples[] object (Example)

Opcional. Ejemplos de lo que debería generar el modelo.

Esto incluye la entrada del usuario y la respuesta que el modelo debe emular.

Estos examples se tratan de manera idéntica a los mensajes de conversación, excepto que tienen prioridad sobre el historial de messages. Si el tamaño total de entrada supera el inputTokenLimit del modelo, se truncará la entrada. Se perderán los artículos de messages antes del examples.

messages[] object (Message)

Obligatorio. Es un resumen del historial de conversaciones recientes ordenado cronológicamente.

Los turnos alternan entre dos autores.

Si el tamaño total de la entrada supera el inputTokenLimit del modelo, la entrada se truncará: los elementos más antiguos se descartarán de messages.

Representación JSON
{
  "context": string,
  "examples": [
    {
      object (Example)
    }
  ],
  "messages": [
    {
      object (Message)
    }
  ]
}

Ejemplo

Un ejemplo de entrada/salida que se usa para instruir al modelo.

Demuestra cómo el modelo debe responder o dar formato a su respuesta.

Campos
input object (Message)

Obligatorio. Un ejemplo de una entrada Message del usuario.

output object (Message)

Obligatorio. Un ejemplo de lo que el modelo debe mostrar según la entrada.

Representación JSON
{
  "input": {
    object (Message)
  },
  "output": {
    object (Message)
  }
}

GenerateTextResponse

La respuesta del modelo, incluidas las terminaciones candidatas

Campos
candidates[] object (TextCompletion)

Respuestas candidatas del modelo.

filters[] object (ContentFilter)

Un conjunto de metadatos de filtrado de contenido para el texto de la instrucción y la respuesta.

Esto indica qué SafetyCategory bloquearon un candidato de esta respuesta, el HarmProbability más bajo que activó un bloqueo y la configuración de HarmThreshold para esa categoría. Esto indica el cambio más pequeño en el SafetySettings que sería necesario para desbloquear al menos 1 respuesta.

El bloqueo lo configura el SafetySettings en la solicitud (o el SafetySettings predeterminado de la API).

safetyFeedback[] object (SafetyFeedback)

Muestra los comentarios de seguridad relacionados con el filtrado de contenido.

Representación JSON
{
  "candidates": [
    {
      object (TextCompletion)
    }
  ],
  "filters": [
    {
      object (ContentFilter)
    }
  ],
  "safetyFeedback": [
    {
      object (SafetyFeedback)
    }
  ]
}

TextCompletion

Texto de salida que muestra un modelo.

Campos
output string

Solo salida. El texto generado que muestra el modelo.

safetyRatings[] object (SafetyRating)

Son las calificaciones de la seguridad de una respuesta.

Hay como máximo una calificación por categoría.

citationMetadata object (CitationMetadata)

Solo salida. Información de cita para el output generado por el modelo en este TextCompletion.

Este campo puede completarse con información de atribución de cualquier texto incluido en output.

Representación JSON
{
  "output": string,
  "safetyRatings": [
    {
      object (SafetyRating)
    }
  ],
  "citationMetadata": {
    object (CitationMetadata)
  }
}

SafetyFeedback

Comentarios sobre seguridad para una solicitud completa.

Este campo se completa si se bloquea el contenido de la entrada o la respuesta debido a la configuración de seguridad. Es posible que SafetyFeedback no exista para todas las HarmCategory. Cada SafetyFeedback mostrará la configuración de seguridad que usa la solicitud, así como la HarmProbability más baja que se debe permitir para mostrar un resultado.

Campos
rating object (SafetyRating)

Calificación de seguridad evaluada a partir del contenido.

setting object (SafetySetting)

Configuración de seguridad aplicada a la solicitud.

Representación JSON
{
  "rating": {
    object (SafetyRating)
  },
  "setting": {
    object (SafetySetting)
  }
}

TextPrompt

Texto proporcionado al modelo como instrucción.

El modelo usará este TextPrompt para generar una finalización de texto.

Campos
text string

Obligatorio. Es el texto de la instrucción.

Representación JSON
{
  "text": string
}