Partager

9 AVRIL 2025

Évoluer la compréhension du code: comment Jolt AI exploite l'API Gemini

Yev Spektor

PDG

Vishal Dharmadhikari

Ingénieur en solutions produit

Image principale de la présentation AgentOps

Les développeurs qui travaillent avec des bases de code tentaculaires à l'échelle de la production connaissent bien ce problème. Comprendre le contexte, trouver les fichiers pertinents et apporter des modifications peut sembler être un labyrinthe. Jolt AI s'attaque à ce problème avec un outil de codage et de chat conçu spécifiquement pour les codebases réels de plus de 100 000 lignes. Son secret pour offrir à la fois rapidité et précision ? L'API Gemini, en particulier Gemini 2.0 Flash

La mission de Jolt AI est de permettre aux développeurs de comprendre et de contribuer instantanément à n'importe quel codebase. De nombreux outils actuels ne parviennent pas à gérer les grands codebases existants et obligent les utilisateurs à sélectionner manuellement les fichiers de contexte. C'est fastidieux et peu pratique. Jolt AI utilise une nouvelle recherche sémantique qui identifie avec précision et automatiquement les fichiers de contexte pertinents. Il s'agit d'un outil révolutionnaire pour le développement de fonctionnalités, la correction de bugs, l'intégration, etc.

Diagramme de flux d'état généré visualisant la logique de l'application.

Le défi pour Jolt AI était de trouver un modèle capable d'alimenter son pipeline de recherche avec le bon équilibre entre vitesse, cohérence et compréhension du code. "Nous cherchions à accélérer trois étapes de notre pipeline de recherche de code optimisées par l'IA", explique Yev Spektor, PDG de Jolt AI. "Chaque étape nécessite une compréhension de divers langages de programmation, frameworks, code utilisateur et intent utilisateur."

Gemini 2.0 Flash: rapidité et meilleure compréhension du code

Accédez à Gemini 2.0 Flash. Pour Jolt AI, ce modèle a permis de réaliser le bond de performances espéré. "Après un réglage rapide, nous avons pu obtenir des résultats plus cohérents et de meilleure qualité avec Gemini 2.0 Flash qu'avec un modèle plus lent et plus volumineux d'un autre fournisseur", note Spektor.

Comment Jolt AI utilise-t-il Gemini 2.0 Flash ? Il alimente plusieurs étapes cruciales de leur pipeline de recherche de code, offrant la rapidité et la précision nécessaires pour naviguer dans des dépôts massifs et les comprendre. Les détails exacts constituent leur "sauce secrète", mais l'impact est clair: Gemini 2.0 Flash permet à Jolt AI d'extraire rapidement les bonnes informations dans des codebases complexes.

Le passage à l'API Gemini a été remarquablement efficace. "Quelques heures pour implémenter le SDK, et deux jours pour le paramétrage et les tests", indique Spektor. L'équipe a également utilisé Google AI Studio pour l'idéation et l'ajustement des requêtes, ce qui a simplifié le processus de développement.

Résultats: plus rapide, de meilleure qualité et plus rentable

Le passage à Gemini 2.0 Flash a permis à Jolt AI d'obtenir des résultats impressionnants :

  • Réduction de 70 à 80% des temps de réponse:les étapes de leur pipeline de recherche optimisées par l'IA sont beaucoup plus rapides.
  • Réponses de meilleure qualité et plus cohérentes:les utilisateurs obtiennent de meilleurs résultats deux fois plus rapidement.
  • 80% de réduction des coûts:les charges de travail d'IA migrées sont désormais beaucoup plus économiques.


"Nous obtenons des réponses de meilleure qualité pour nos utilisateurs plus de deux fois plus rapidement", souligne Spektor. Cette combinaison de rapidité, de qualité et d'économies de coûts souligne la puissance de Gemini 2.0 Flash pour les applications critiques en termes de performances.

Perspectives d'avenir et insights pour les développeurs

Jolt AI développe activement la compatibilité avec les IDE avec un plug-in JetBrains à venir et explore l'accessibilité des API. Spektor est ravi du potentiel plus large de Jolt AI dans les entreprises, qu'il s'agisse d'aider les développeurs et les responsables techniques, d'assister les équipes d'assistance client ou d'automatiser les pipelines de code basés sur l'IA.

En réfléchissant à son parcours avec l'API Gemini, Spektor donne ce conseil à ses collègues développeurs :

"Gemini 2.0 Flash est plus performant que vous ne le pensez. Ne le laissez pas passer. Il est très efficace pour le rappel, bien mieux que certains modèles lents et plus coûteux." Il encourage également les développeurs à explorer les derniers modèles de la famille Gemini: "La nouvelle génération, Gemini 2.0 Flash et Gemini 2.5 Pro, doit être examinée. Gemini 2.0 Flash a rendu notre produit deux fois plus rapide, tout en améliorant la qualité des réponses. Les nouveaux modèles sont une fonction à pas importants."

L'histoire à succès de Jolt AI montre à quel point la vitesse et les fonctionnalités de Gemini 2.0 Flash peuvent améliorer considérablement les outils de développement optimisés par l'IA, en particulier ceux qui gèrent la complexité des grands codebases.

Prêt à compiler ? Consultez la documentation de l'API Gemini et commencez à utiliser Google AI Studio dès aujourd'hui.