9 DE ABRIL DE 2025
Ampliación de la comprensión del código: Cómo Jolt AI aprovecha la API de Gemini

Los desarrolladores que trabajan con bases de código extensas a escala de producción conocen el problema. Comprender el contexto, encontrar archivos relevantes y realizar cambios puede ser como navegar por un laberinto. Jolt AI aborda este problema de frente con una herramienta de codegen y chat diseñada específicamente para bases de código de más de 100, 000 líneas en el mundo real. ¿Cuál es su arma secreta para ofrecer velocidad y precisión? La API de Gemini, en particular Gemini 2.0 Flash
La misión de Jolt AI es permitir que los desarrolladores comprendan y contribuyan de inmediato a cualquier base de código. Muchas de las herramientas actuales tienen problemas con bases de código grandes y existentes, y requieren que los usuarios seleccionen manualmente los archivos de contexto. Es tedioso y poco práctico. Jolt AI usa una nueva búsqueda semántica que identifica con precisión y automáticamente los archivos de contexto relevantes. Es un cambio radical para el desarrollo de funciones, la corrección de errores, la integración y mucho más.

El desafío de Jolt AI era encontrar un modelo que pudiera potenciar su canalización de búsqueda con la combinación correcta de velocidad, coherencia y comprensión del código. "Queríamos acelerar 3 pasos respaldados por IA en nuestra canalización de búsqueda de código", explica Yev Spektor, director general de Jolt AI. “Cada paso requiere el conocimiento de varios lenguajes de programación, frameworks, código de usuario y la intención del usuario”.
Gemini 2.0 Flash: Ofrece velocidad y una comprensión del código mejorada
Ingresa a Gemini 2.0 Flash. Para Jolt AI, este modelo proporcionó el aumento de rendimiento que buscaban. “Después de algunos ajustes rápidos, pudimos obtener resultados más coherentes y de mayor calidad con Gemini 2.0 Flash que con un modelo más lento y más grande de otro proveedor”, señala Spektor.
¿Cómo usa Jolt AI Gemini 2.0 Flash? Impulsa varios pasos cruciales en su canalización de búsqueda de código, lo que proporciona la velocidad y la precisión necesarias para navegar y comprender repositorios masivos. Si bien los detalles exactos son su “ingrediente secreto”, el impacto es claro: Gemini 2.0 Flash permite que Jolt AI muestre rápidamente la información correcta dentro de bases de código complejas.
El cambio a la API de Gemini fue muy eficiente. “Un par de horas para implementar el SDK y 2 días para realizar la configuración y las pruebas oportunas”, informa Spektor. El equipo también usó Google AI Studio para la ideación y el ajuste de instrucciones, lo que optimizó el proceso de desarrollo.
Los resultados: más rápido, de mayor calidad y más rentable
El cambio a Gemini 2.0 Flash generó resultados impresionantes para Jolt AI:
- Reducción de entre el 70 y el 80% en los tiempos de respuesta: Los pasos respaldados por IA en su canalización de búsqueda son mucho más rápidos.
- Respuestas de mayor calidad y más coherentes: Los usuarios reciben mejores resultados más del doble de rápido.
- Costos un 80% más bajos: Las cargas de trabajo de IA migradas ahora son mucho más rentables.
"Estamos obteniendo respuestas de mayor calidad para nuestros usuarios con más del doble de rapidez", enfatiza Spektor. Esta combinación de velocidad, calidad y ahorro de costos destaca el poder de Gemini 2.0 Flash para aplicaciones de rendimiento crítico.
Mirada al futuro y estadísticas para desarrolladores
Jolt AI está expandiendo activamente su compatibilidad con IDE con un próximo complemento de JetBrains y explorando la accesibilidad de la API. Spektor está entusiasmado con el potencial más amplio de Jolt AI en las empresas, desde ayudar a los desarrolladores y líderes de ingeniería hasta apoyar a los equipos de asistencia al cliente y habilitar las canalización de código de IA automatizadas.
Reflexionando sobre su recorrido con la API de Gemini, Spektor ofrece este consejo a sus colegas desarrolladores:
“Gemini 2.0 Flash es más capaz de lo que crees, no lo dejes pasar. Es muy bueno en la recuperación, mucho mejor que algunos modelos lentos y más costosos". También alienta a los desarrolladores a explorar los modelos más recientes de la familia Gemini: "Se debe analizar la nueva generación, Gemini 2.0 Flash y Gemini 2.5 Pro. Gemini 2.0 Flash hizo que nuestro producto fuera más del doble de rápido y, al mismo tiempo, aumentó la calidad de las respuestas. Los nuevos modelos son una función de paso importante".
La historia de éxito de Jolt AI destaca cómo la velocidad y la capacidad de Gemini 2.0 Flash pueden mejorar significativamente las herramientas para desarrolladores potenciadas por IA, especialmente aquellas que se ocupan de las complejidades de bases de código grandes.
¿Todo listo para compilar? Explora la documentación de la API de Gemini y comienza a usar Google AI Studio hoy mismo.