Guía de solución de problemas

Usa esta guía para diagnosticar y resolver problemas habituales que surgen cuando llamas a la API de Gemini. Si tienes problemas con la clave de API, asegúrate de haberla configurado correctamente según la Guía de configuración de claves de API.

Códigos de error

En la siguiente tabla, se enumeran los códigos de error comunes que puedes encontrar, junto con las explicaciones sobre sus causas y los pasos para solucionar problemas:

Código HTTP Estado Descripción Solución
400 INVALID_ARGUMENT El cuerpo de la solicitud tiene errores de formato. Consulta la referencia de la API para conocer el formato de la solicitud, los ejemplos y las versiones compatibles. El uso de funciones de una versión de API más reciente con un extremo anterior puede causar errores.
403 PERMISSION_DENIED Tu clave de API no cuenta con los permisos necesarios. Verifica que tu clave de API esté configurada y tenga el acceso correcto.
404 NOT_FOUND No se encontró el recurso solicitado. Verifica si todos los parámetros en tu solicitud son válidos para la versión de tu API.
429 RESOURCE_EXHAUSTED Superaste el límite de frecuencia. Asegúrate de estar dentro del límite de frecuencia del modelo. Solicita un aumento de la cuota si es necesario.
500 INTERNAL Se produjo un error inesperado en Google. Espera un momento y vuelve a enviar la solicitud. Si el problema persiste después de reintentarlo, infórmalo con el botón Enviar comentarios en Google AI Studio.
503 UNAVAILABLE Es posible que el servicio esté temporalmente sobrecargado o inactivo. Espera un momento y vuelve a enviar la solicitud. Si el problema persiste después de reintentarlo, infórmalo con el botón Enviar comentarios en Google AI Studio.

Verifica tus llamadas a la API en busca de errores de parámetros del modelo

Asegúrate de que los parámetros de tu modelo estén dentro de los siguientes valores:

Parámetro del modelo Valores (rango)
Cantidad de candidatos De 1 a 8 (número entero)
Temperatura 0,0 a 1,0
Cantidad máxima de tokens de salida Usa get_model (Python) a fin de determinar la cantidad máxima de tokens para el modelo que estás usando.
TopP 0,0 a 1,0

Además de verificar los valores de los parámetros, asegúrate de usar la versión de API correcta (p.ej., /v1 o /v1beta) y un modelo que admita las funciones que necesitas. Por ejemplo, si una función está en versión beta, solo estará disponible en la versión de la API /v1beta.

Revisa si tienes el modelo correcto

Asegúrate de usar un modelo compatible. Usa list_models (Python) para obtener todos los modelos disponibles para su uso.

Problemas de seguridad

Si ves que se bloqueó un mensaje debido a una configuración de seguridad en tu llamada a la API, revisa la solicitud con respecto a los filtros que configuraste en la llamada a la API.

Si ves BlockedReason.OTHER, es posible que la consulta o la respuesta infrinjan las Condiciones del Servicio o no sean compatibles.

Mejora la salida del modelo

Para obtener resultados de modelos de mayor calidad, explora la escritura de instrucciones más estructuradas. En la página de introducción al diseño de instrucciones, se presentan algunos conceptos básicos, estrategias y prácticas recomendadas para comenzar.

Si tienes cientos de ejemplos de buenos pares de entrada/salida, también puedes considerar el ajuste del modelo.

Información sobre los límites de tokens

Usa la API de ModelService para obtener metadatos adicionales sobre los modelos, incluidos los límites de tokens de entrada y salida.

Si quieres obtener los tokens que usa tu mensaje, usa countMessageTokens para los modelos de chat y countTextTokens para los modelos de texto.

Errores conocidos

  • Compatibilidad con dispositivos móviles para Google AI Studio: Si bien puedes abrir el sitio web en dispositivos móviles, no se optimizó para pantallas pequeñas.
  • La API solo admite inglés. Enviar instrucciones en diferentes idiomas puede producir respuestas inesperadas o bloqueadas. Consulta los idiomas disponibles para conocer las actualizaciones.

Informa un error

Informa sobre un problema en GitHub para hacer preguntas o enviar solicitudes de funciones o errores.