Ejecución de código

La función de ejecución de código de la API de Gemini permite que el modelo genere y ejecute código de Python, y aprenda de forma iterativa a partir de los resultados hasta llegar a un resultado final. Puedes usar esta función de ejecución de código para compilar aplicaciones que se beneficien del razonamiento basado en código y que produzcan resultados de texto. Por ejemplo, puedes usar la ejecución de código en una aplicación que resuelva ecuaciones o procese texto.

La ejecución de código está disponible en AI Studio y la API de Gemini. En AI Studio, puedes habilitar la ejecución de código en Configuración avanzada. La API de Gemini proporciona la ejecución de código como herramienta, de forma similar a la llamada a funciones. Después de agregar la ejecución del código como herramienta, el modelo decide cuándo usarla.

Comienza a ejecutar código

En esta sección, se supone que completaste los pasos de configuración que se muestran en la guía de inicio rápido.

Ejecución de código en comparación con llamadas a funciones

La ejecución de código y la llamada a funciones son características similares:

  • La ejecución de código permite que el modelo ejecute código en el backend de la API en un entorno fijo y aislado.
  • Las llamadas a funciones te permiten ejecutar las funciones que solicita el modelo en cualquier entorno que desees.

En general, debes preferir usar la ejecución de código si puede controlar tu caso de uso. La ejecución de código es más fácil de usar (solo tienes que habilitarla) y se resuelve en una sola solicitud de GenerateContent (por lo que se genera un solo cargo). Las llamadas a función requieren una solicitud GenerateContent adicional para enviar el resultado de cada llamada a función (por lo que se incurren en varios cargos).

En la mayoría de los casos, debes usar llamadas a función si tienes tus propias funciones que deseas ejecutar de forma local y debes usar la ejecución de código si deseas que la API escriba y ejecute código Python por ti y muestre el resultado.

Facturación

No se cobra ningún cargo adicional por habilitar la ejecución de código desde la API de Gemini. Se te facturará a la tarifa actual de los tokens de entrada y salida.

Ten en cuenta lo siguiente sobre la facturación de la ejecución de código:

  • Solo se te factura una vez por los tokens de entrada que pasas al modelo y se te factura por los tokens de salida finales que te muestra el modelo.
  • Los tokens que representan el código generado se cuentan como tokens de salida.
  • Los resultados de la ejecución de código también se cuentan como tokens de salida.

Limitaciones

  • El modelo solo puede generar y ejecutar código. No puede mostrar otros artefactos, como archivos multimedia.
  • La función no admite E/S de archivos ni casos de uso que involucren resultados que no sean de texto (por ejemplo, gráficos de datos o una carga de archivo CSV).
  • La ejecución de código puede ejecutarse durante un máximo de 30 segundos antes de que se agote el tiempo de espera.
  • En algunos casos, habilitar la ejecución de código puede generar regresiones en otras áreas del resultado del modelo (por ejemplo, escribir una historia).
  • Hay cierta variación en la capacidad de los diferentes modelos para usar la ejecución de código con éxito. Según nuestras pruebas, Gemini 1.5 Pro es el modelo con el mejor rendimiento.