Compartilhar

9 DE ABRIL DE 2025

Como a Jolt AI usa a API Gemini para dimensionar a compreensão de código

Yev Spektor

CEO

Vishal Dharmadhikari

Engenheiro de soluções de produtos

Imagem principal da demonstração do AgentOps

Os desenvolvedores que trabalham com bases de código extensas e em escala de produção conhecem essa dificuldade. Entender o contexto, encontrar arquivos relevantes e fazer mudanças pode parecer navegar em um labirinto. A Jolt AI está enfrentando esse problema de frente com uma ferramenta de codegen e chat projetada especificamente para bases de código do mundo real com mais de 100 mil linhas. A arma secreta deles para oferecer velocidade e precisão? A API Gemini, principalmente o Gemini 2.0 Flash.

A missão da Jolt AI é permitir que os desenvolvedores entendam e contribuam instantaneamente com qualquer base de código. Muitas ferramentas atuais têm dificuldade com bases de código grandes e exigem que os usuários selecionem manualmente os arquivos de contexto. Isso é cansativo e impraticável. A Jolt AI usa uma nova pesquisa semântica que identifica com precisão e de forma automática os arquivos de contexto relevantes. Ela muda o jogo no desenvolvimento de recursos, correção de bugs, integração e muito mais.

Diagrama de fluxo de estado gerado que visualiza a lógica do aplicativo.

O desafio da Jolt AI era encontrar um modelo que pudesse impulsionar o pipeline de pesquisa com a combinação certa de velocidade, consistência e compreensão de código. "Queríamos acelerar três etapas com tecnologia de IA no nosso pipeline de pesquisa de código", explica Yev Spektor, CEO da Jolt AI. "Cada etapa exige o entendimento de várias linguagens de programação, frameworks, código do usuário e intenção do usuário."

Gemini 2.0 Flash: oferecendo velocidade e melhor compreensão de código

Conheça o Gemini 2.0 Flash. Para a Jolt AI, esse modelo ofereceu o salto de desempenho que a empresa buscava. "Depois de alguns ajustes de comandos, conseguimos uma saída mais consistente e de maior qualidade com o Gemini 2.0 Flash do que com um modelo maior e mais lento de outro provedor", observa Spektor.

Como a Jolt AI usa o Gemini 2.0 Flash? Ele alimenta várias etapas cruciais no pipeline de pesquisa de código, oferecendo a velocidade e a precisão necessárias para navegar e entender repositórios enormes. Embora os detalhes exatos sejam o "segredo" deles, o impacto é claro: o Gemini 2.0 Flash permite que a Jolt AI encontre rapidamente as informações certas em bases de código complexas.

A mudança para a API Gemini foi muito eficiente. "Levou algumas horas para implementar o SDK e dois dias para ajuste e teste de comandos", relata Spektor. A equipe também usou o Google AI Studio para criar e ajustar comandos, simplificando o processo de desenvolvimento.

Os resultados: mais rápido, de maior qualidade e mais econômico

A mudança para o Gemini 2.0 Flash gerou resultados impressionantes para a Jolt AI:

  • Redução de 70 a 80% no tempo de resposta:as etapas com tecnologia de IA no pipeline de pesquisa são significativamente mais rápidas.
  • Respostas de maior qualidade e mais consistentes:os usuários recebem resultados melhores mais do que duas vezes mais rápido.
  • 80% de redução nos custos:as cargas de trabalho de IA migradas agora são muito mais econômicas.


"Estamos recebendo respostas de maior qualidade para nossos usuários mais do que duas vezes mais rápido", enfatiza Spektor. Essa combinação de velocidade, qualidade e economia de custos destaca o poder do Gemini 2.0 Flash para aplicativos essenciais ao desempenho.

Foco no futuro e insights para desenvolvedores

A Jolt AI está expandindo ativamente o suporte a IDEs com um futuro plug-in do JetBrains e explorando a acessibilidade da API. A Spektor está entusiasmada com o potencial mais amplo da Jolt AI em todas as empresas, desde ajudar desenvolvedores e líderes de engenharia até apoiar equipes de suporte ao cliente e permitir pipelines de código de IA automatizados.

Refletindo sobre a jornada com a API Gemini, Spektor oferece este conselho a outros desenvolvedores:

"O Gemini 2.0 Flash é mais capaz do que você imagina. Não deixe de usá-lo. Ele é muito bom em recall, muito melhor do que alguns modelos lentos e mais caros." Ele também incentiva os desenvolvedores a conhecer os modelos mais recentes da família Gemini: "A nova geração, Gemini 2.0 Flash e Gemini 2.5 Pro, precisa ser analisada. O Gemini 2.0 Flash deixou nosso produto mais do que duas vezes mais rápido e aumentou a qualidade das respostas. Os novos modelos são uma grande função de etapa".

A história de sucesso da Jolt AI mostra como a velocidade e a capacidade do Gemini 2.0 Flash podem melhorar significativamente as ferramentas de desenvolvedores com tecnologia de IA, especialmente aquelas que lidam com as complexidades de grandes bases de código.

Tudo pronto para criar? Confira a documentação da API Gemini e comece a usar o Google AI Studio hoje mesmo.