Udostępnij

9 KWIETNIA 2025 R.

Scaling Code Understanding: How Jolt AI Leverages the Gemini API

Yev Spektor

Prezes zarządu

Vishal Dharmadhikari

Inżynier ds. rozwiązań produktowych

Baner powitalny AgentOps

Deweloperzy, którzy pracują z rozbudowanymi bazami kodu na potrzeby produkcji, wiedzą, jak to jest. Rozumienie kontekstu, znajdowanie odpowiednich plików i wprowadzanie zmian może przypominać poruszanie się w labiryncie. Jolt AI rozwiązuje ten problem za pomocą narzędzia do generowania kodu i czatu zaprojektowanego specjalnie do obsługi prawdziwych baz kodu o długości ponad 100 tys. wierszy. Jaka jest ich tajna broń, która zapewnia szybkość i dokładność? Gemini API, zwłaszcza Gemini 2.0 Flash.

Misją Jolt AI jest umożliwienie deweloperom natychmiastowego zrozumienia dowolnej bazy kodu i wniesienie do niej swojego wkładu. Wiele współczesnych narzędzi ma problemy z obsługą dużych, istniejących baz kodu i wymaga od użytkowników ręcznego wybierania plików kontekstowych. Jest to żmudne i niepraktyczne. Jolt AI korzysta z nowatorskiej wyszukiwarki semantycznej, która precyzyjnie i automatycznie identyfikuje odpowiednie pliki kontekstowe. To prawdziwa rewolucja w kwestii tworzenia funkcji, poprawiania błędów, wprowadzania nowych funkcji i innych działań.

Wygenerowany diagram stanu obrazujący logikę aplikacji.

Wyzwaniem dla Jolt AI było znalezienie modelu, który mógłby wspomóc ich system wyszukiwania, zapewniając odpowiednią równowagę między szybkością, spójnością i rozumieniem kodu. „Chcieliśmy przyspieszyć 3 kroki w procesie wyszukiwania kodu, które są oparte na AI” – wyjaśnia Yev Spektor, CEO firmy Jolt AI. „Każdy krok wymaga znajomości różnych języków programowania, frameworków, kodu użytkownika i intencji użytkownika”.

Gemini 2.0 Flash: szybkość i ulepszone zrozumienie kodu

Wpisz Gemini 2.0 Flash. W przypadku Jolt AI ten model zapewnił oczekiwany wzrost wydajności. „Po szybkim dostosowaniu udało nam się uzyskać bardziej spójne wyniki o wyższej jakości przy użyciu modelu Gemini 2.0 Flash niż przy wolniejszym, większym modelu od innego dostawcy” – zauważa Spektor.

W jaki sposób Jolt AI korzysta z modelu Gemini 2.0 Flash? Jest on używany w kilku kluczowych etapach procesu wyszukiwania kodu, zapewniając szybkość i dokładność niezbędne do poruszania się po ogromnych repozytoriach i ich analizowania. Szczegóły są ich „tajną bronią”, ale wpływ jest oczywisty: Gemini 2.0 Flash umożliwia Jolt AI szybkie wyświetlanie odpowiednich informacji w skomplikowanych bazach kodu.

Przejście na interfejs Gemini API było bardzo wydajne. „Kilka godzin na wdrożenie pakietu SDK i 2 dni na szybkie dostosowanie i testowanie” – mówi Spektor. Zespół wykorzystał też Google AI Studio do szybkiego tworzenia pomysłów i ich dopracowywania, co usprawniło proces tworzenia.

Wyniki: szybsze działanie, wyższa jakość i mniejsze koszty

Przejście na model Gemini 2.0 Flash przyniosło firmie Jolt AI imponujące wyniki:

  • O 70–80% krótszy czas oczekiwania na odpowiedź: etapy wyszukiwania obsługiwane przez AI są znacznie szybsze.
  • Wyższa jakość i bardziej spójne odpowiedzi: użytkownicy otrzymują lepsze wyniki ponad 2 razy szybciej.
  • O 80% niższe koszty: przejęte zadania AI są teraz znacznie bardziej opłacalne.


„Otrzymujemy od użytkowników odpowiedzi o znacznie wyższej jakości w ponad 2 razy szybciej” – podkreśla Spektor. Takie połączenie szybkości, jakości i oszczędności podkreśla możliwości modelu Gemini 2.0 Flash w przypadku aplikacji, w których przypadku liczy się wydajność.

Przyszłe trendy i statystyki dla deweloperów

Jolt AI aktywnie rozwija obsługę IDE dzięki nadchodzącemu wtykowi JetBrains i badaniu dostępności interfejsu API. Firma Spektor jest podekscytowana potencjałem AI firmy Jolt w różnych firmach, od pomocy deweloperom i kierownikom zespołów inżynierskich po wsparcie zespołów pomocy klienta i automatyzację ścieżek kodu AI.

Spektor podsumowuje swoje doświadczenia z Gemini API i podaje kilka porad dla innych deweloperów:

„Gemini 2.0 Flash ma więcej możliwości, niż myślisz. Nie zwlekaj z jego używania. Jest bardzo skuteczny w przypominaniu treści – znacznie skuteczniejszy niż niektóre wolne i droższe modele”. Zachęca też deweloperów do zapoznania się z najnowszymi modelami z rodziny Gemini: „Warto przyjrzeć się nowym generacjom Gemini 2.0 Flash i Gemini 2.5 Pro. Dzięki Gemini 2.0 Flash nasza usługa działa ponad dwukrotnie szybciej, a jakość odpowiedzi jest lepsza. Nowe modele to funkcja krokowa o dużej amplitudzie”.

Historia sukcesu firmy Jolt AI pokazuje, jak szybkość i możliwości Gemini 2.0 Flash mogą znacznie usprawnić korzystanie z narzędzi dla deweloperów opartych na AI, zwłaszcza tych, które mają do czynienia ze złożonymi dużymi bazami kodu.

Chcesz tworzyć? Zapoznaj się z dokumentacją Gemini API i zacznij korzystać z Google AI Studio.