Partager

9 AVRIL 2025

Comprendre le code à grande échelle : comment Jolt AI exploite l'API Gemini

Yev Spektor

PDG

Vishal Dharmadhikari

Ingénieur en solutions produit

Image principale de la vitrine AgentOps

Les développeurs qui travaillent avec des bases de code volumineuses à l'échelle de la production le savent bien. Comprendre le contexte, trouver les fichiers pertinents et apporter des modifications peut sembler être un véritable labyrinthe. Jolt AI s'attaque directement à ce problème avec un outil de génération de code et de chat conçu spécifiquement pour les codebases réelles de plus de 100 000 lignes. Leur arme secrète pour offrir à la fois rapidité et précision ? L'API Gemini, en particulier Gemini 2.0 Flash.

La mission de Jolt AI est de permettre aux développeurs de comprendre instantanément n'importe quelle base de code et d'y contribuer. De nombreux outils actuels ont du mal à gérer les bases de code volumineuses existantes et demandent aux utilisateurs de sélectionner manuellement les fichiers de contexte. C'est fastidieux et peu pratique. Jolt AI utilise une nouvelle recherche sémantique qui identifie précisément et automatiquement les fichiers de contexte pertinents. C'est une petite révolution pour le développement de fonctionnalités, la correction de bugs, l'intégration et plus encore.

Diagramme de flux d'état généré visualisant la logique de l'application.

Le défi de Jolt AI consistait à trouver un modèle capable d'alimenter son pipeline de recherche avec le bon mélange de vitesse, de cohérence et de compréhension du code. "Nous cherchions à accélérer trois étapes de notre pipeline de recherche de code optimisées par l'IA", explique Yev Spektor, PDG de Jolt AI. "Chaque étape nécessite de comprendre différents langages de programmation, frameworks, codes utilisateur et intentions de l'utilisateur."

Gemini 2.0 Flash : rapidité et compréhension améliorée du code

Découvrez Gemini 2.0 Flash. Pour Jolt AI, ce modèle a permis d'améliorer les performances comme ils le souhaitaient. "Après quelques ajustements de requête, nous avons pu obtenir des résultats plus cohérents et de meilleure qualité avec Gemini 2.0 Flash qu'avec un modèle plus lent et plus grand d'un autre fournisseur", note Spektor.

Comment Jolt AI utilise-t-il Gemini 2.0 Flash ? Il alimente plusieurs étapes cruciales de leur pipeline de recherche de code, en fournissant la vitesse et la précision nécessaires pour parcourir et comprendre d'énormes dépôts. Bien que les détails exacts soient leur "ingrédient secret", l'impact est clair : Gemini 2.0 Flash permet à Jolt AI de faire rapidement remonter les bonnes informations dans des bases de code complexes.

La transition vers l'API Gemini a été remarquablement efficace. "Il nous a fallu quelques heures pour implémenter le SDK, et deux jours pour ajuster et tester les requêtes", explique Spektor. L'équipe a également utilisé Google AI Studio pour trouver et ajuster des requêtes, ce qui a permis de rationaliser le processus de développement.

Résultats : plus rapides, de meilleure qualité et plus économiques

Le passage à Gemini 2.0 Flash a donné des résultats impressionnants pour Jolt AI :

  • Réduction de 70 à 80 % des temps de réponse : les étapes de leur pipeline de recherche optimisées par l'IA sont beaucoup plus rapides.
  • Des réponses de meilleure qualité et plus cohérentes : les utilisateurs obtiennent de meilleurs résultats plus de deux fois plus rapidement.
  • Coûts réduits de 80 % : les charges de travail d'IA migrées sont désormais beaucoup plus économiques.


"Nous obtenons des réponses de meilleure qualité pour nos utilisateurs plus de deux fois plus rapidement", souligne Spektor. Cette combinaison de rapidité, de qualité et d'économies souligne la puissance de Gemini 2.0 Flash pour les applications critiques en termes de performances.

Perspectives d'avenir et insights pour les développeurs

Jolt AI étend activement sa compatibilité avec les IDE grâce à un futur plug-in JetBrains et explore l'accessibilité des API. Spektor se réjouit du potentiel plus large de Jolt AI dans les entreprises, qu'il s'agisse d'aider les développeurs et les responsables de l'ingénierie, de soutenir les équipes du service client ou de permettre des pipelines de code d'IA automatisés.

Spektor réfléchit à son parcours avec l'API Gemini et donne ce conseil aux autres développeurs :

"Gemini 2.0 Flash est plus performant que vous ne le pensez, ne le négligez pas. Il est très bon pour le rappel, bien meilleur que certains modèles lents et plus coûteux." Il encourage également les développeurs à explorer les derniers modèles de la famille Gemini : "Il faut se pencher sur la nouvelle génération, Gemini 2.0 Flash et Gemini 2.5 Pro. Gemini 2.0 Flash a permis de rendre notre produit plus de deux fois plus rapide tout en améliorant la qualité des réponses. Les nouveaux modèles représentent une avancée majeure."

La success story de Jolt AI montre comment la vitesse et les capacités de Gemini 2.0 Flash peuvent améliorer considérablement les outils pour les développeurs optimisés par l'IA, en particulier ceux qui traitent des bases de code volumineuses et complexes.

Prêt à compiler ? Consultez la documentation de l'API Gemini et commencez à utiliser Google AI Studio dès aujourd'hui.