Teilen

9. APRIL 2025

Codeverständnis skalieren: So nutzt Jolt AI die Gemini API

Yev Spektor

CEO

Vishal Dharmadhikari

Product Solutions Engineer

AgentOps-Demo – Hero

Entwickler, die mit weitläufigen Codebases im Produktionsmaßstab arbeiten, kennen das Problem. Den Kontext zu verstehen, relevante Dateien zu finden und Änderungen vorzunehmen, kann sich anfühlen wie ein Labyrinth. Jolt AI löst dieses Problem mit einem Codegen- und Chat-Tool, das speziell für reale Codebases mit mehr als 100.000 Zeilen entwickelt wurde. Was ist ihr Geheimnis für Geschwindigkeit und Genauigkeit? Die Gemini API, insbesondere Gemini 2.0 Flash.

Jolt AI möchte Entwicklern ermöglichen, jede Codebasis sofort zu verstehen und zu bearbeiten. Viele der heutigen Tools haben Probleme mit großen, vorhandenen Codebases und erfordern, dass Nutzer Kontextdateien manuell auswählen. Es ist mühsam und unpraktisch. Jolt AI verwendet eine neuartige semantische Suche, mit der die relevanten Kontextdateien genau und automatisch identifiziert werden. Sie ist ein echter Gamechanger für die Funktionsentwicklung, Fehlerbehebung, das Onboarding und vieles mehr.

Generiertes Zustandsflussdiagramm, das die Anwendungslogik visualisiert.

Die Herausforderung für Jolt AI bestand darin, ein Modell zu finden, das die Suchpipeline mit der richtigen Mischung aus Geschwindigkeit, Konsistenz und Codeverständnis unterstützen konnte. „Wir wollten drei KI-gestützte Schritte in unserer Code-Suchpipeline beschleunigen“, erklärt Yev Spektor, CEO von Jolt AI. „Jeder Schritt erfordert Kenntnisse verschiedener Programmiersprachen, Frameworks, Nutzercodes und Nutzerabsichten.“

Gemini 2.0 Flash: Mehr Geschwindigkeit und besseres Codeverständnis

Gemini 2.0 Flash aktivieren Für Jolt AI war dieses Modell der erhoffte Leistungssprung. „Nach einer kurzen Abstimmung konnten wir mit Gemini 2.0 Flash eine konsistentere und qualitativ hochwertigere Ausgabe erzielen als mit einem langsameren, größeren Modell eines anderen Anbieters“, erklärt Spektor.

Wie nutzt Jolt AI Gemini 2.0 Flash? Sie unterstützt mehrere wichtige Schritte in der Codesuchpipeline und bietet die Geschwindigkeit und Genauigkeit, die erforderlich sind, um riesige Repositories zu durchsuchen und zu verstehen. Die genauen Details sind ihr „Geheimnis“, aber die Auswirkungen sind klar: Mit Gemini 2.0 Flash kann Jolt AI schnell die richtigen Informationen in komplexen Codebases finden.

Die Umstellung auf die Gemini API war bemerkenswert effizient. „Ein paar Stunden für die Implementierung des SDK und zwei Tage für die sofortige Optimierung und Tests“, berichtet Spektor. Das Team nutzte auch Google AI Studio für die Ideenfindung und Optimierung, um den Entwicklungsprozess zu optimieren.

Die Ergebnisse: Schneller, hochwertiger und kostengünstiger

Die Umstellung auf Gemini 2.0 Flash hat für Jolt AI beeindruckende Ergebnisse erzielt:

  • 70–80% kürzere Reaktionszeiten:Die KI-gestützten Schritte in der Suchpipeline sind deutlich schneller.
  • Höhere Qualität und einheitlichere Antworten:Nutzer erhalten mehr als doppelt so schnell bessere Ergebnisse.
  • 80% geringere Kosten: Die migrierten KI-Arbeitslasten sind jetzt deutlich kostengünstiger.


„Wir erhalten mehr als doppelt so schnell hochwertige Antworten für unsere Nutzer“, betont Spektor. Diese Kombination aus Geschwindigkeit, Qualität und Kosteneinsparungen unterstreicht die Leistungsfähigkeit von Gemini 2.0 Flash für leistungskritische Anwendungen.

Zukunftsausrichtung und Statistiken für Entwickler

Jolt AI erweitert seine IDE-Unterstützung aktiv mit einem bevorstehenden JetBrains-Plug-in und untersucht die API-Barrierefreiheit. Spektor ist begeistert vom breiteren Potenzial von Jolt-KI in Unternehmen, von der Unterstützung von Entwicklern und technischen Leitern bis hin zur Unterstützung von Kundensupportteams und der Automatisierung von KI-Codepipelines.

Spektor blickt auf seine Erfahrungen mit der Gemini API zurück und gibt seinen Mitentwicklern folgenden Rat:

„Gemini 2.0 Flash ist leistungsfähiger als Sie denken. Es hat eine sehr gute Erinnerungsleistung – viel besser als einige langsame, teurere Modelle.“ Er empfiehlt Entwicklern auch, die neuesten Modelle der Gemini-Familie zu testen: „Die neue Generation, Gemini 2.0 Flash und Gemini 2.5 Pro, sollte genauer betrachtet werden. Mit Gemini 2.0 Flash ist unser Produkt mehr als doppelt so schnell und die Qualität der Antworten wurde verbessert. Die neuen Modelle sind ein großer Schritt.“

Die Erfolgsgeschichte von Jolt AI zeigt, wie sich mit der Geschwindigkeit und den Funktionen von Gemini 2.0 Flash KI-gestützte Entwicklertools erheblich verbessern lassen, insbesondere solche, die mit der Komplexität großer Codebases umgehen müssen.

Sind Sie bereit? Lesen Sie die Gemini API-Dokumentation und beginnen Sie noch heute mit Google AI Studio.