9 KWIETNIA 2025 R.
Optimal AI skraca czas sprawdzania kodu o 50% dzięki Gemini API

Chociaż sprawdzanie kodu jest kluczowe dla jakości, często staje się wąskim gardłem w przypadku szybkiego rozwoju. Optymalna AI to zmienia. Ich misja: „oddać inżynierom czas” dzięki automatyzacji procesów inżynieryjnych i zgodności z wymaganiami za pomocą AI. Ich rozwiązania obejmują Optibot, czyli narzędzie do sprawdzania kodu oparte na AI, które koncentruje się na bezpieczeństwie i zgodności z przepisami, oraz platformę do generowania statystyk opartą na interfejsie Gemini API, która optymalizuje szybkość rozwoju.
Wcześniej Optimal AI miało problemy ze zrozumieniem kontekstu i szybkością działania, które są niezbędne do skutecznego sprawdzania kodu AI. „Największym wyzwaniem było zrozumienie kontekstu. Potrzebowaliśmy modelu, który analizowałby zmiany w kodzie i kontekstualizował je” – wyjaśnia Syed Ahmed, współzałożyciel i dyrektor ds. technologii.
Większa wydajność
Dzięki integracji interfejsu Gemini API firma Optimal AI znacznie rozszerzyła swoją ofertę:
- Zwiększona szybkość i dokładność sprawdzania kodu: Optibot, korzystając z Gemini API, automatycznie sprawdza prośby o przeniesienie w zakresie luk w zabezpieczeniach, ryzyka związanego z przestrzeganiem przepisów oraz wzorców kodowania, a także dostarcza przydatne informacje i znacznie skraca czas sprawdzania.
- Wyodrębniane przydatne informacje techniczne: modele Gemini analizują dane z GitHuba i Jira, aby identyfikować wąskie gardła i analizować wydajność zespołu programistów, skutecznie rozróżniając między produktywną aktywnością a zmianami w kodzie.
- Zrównoważona szybkość i zaawansowanie: optymalna AI korzysta z modelu Gemini 2.5 Pro do złożonej analizy i głębokiego zrozumienia kodu, a model Gemini 2.0 Flash zapewnia szybkość potrzebną do wykonywania zadań o krótkim czasie oczekiwania, takich jak szybkie streszczenia.
Jak Optimal AI korzysta z interfejsu Gemini API
Implementacja firmy Optimal AI pokazuje elastyczność interfejsu Gemini API:
-
Wykorzystane modele:
- Gemini 2.5 Pro: dogłębna analiza kodu, sprawdzanie bezpieczeństwa, kontekstowy feedback dotyczący pull requestów oraz identyfikowanie złożonych wzorców inżynieryjnych na potrzeby analizy wydajności.
- Gemini 2.0 Flash: do zadań o małej latencji, takich jak skanowanie drzewa plików i generowanie szybkich podsumowań.
-
Najważniejsze funkcje i wdrożenie:
- Zrozumienie kontekstu: duże okno kontekstu modeli Gemini jest kluczowe do interpretowania złożonych zmian kodu i rozpoznawania szerszych wzorców programistycznych.
- Obsługa wielu języków: ulepszona zdolność modeli Gemini do obsługi wielu języków i ramek programowania była znacznym atutem dla Optimal AI.
- Google AI Studio: zespół intensywnie korzysta z Google AI Studio do szybkiego testowania promptów, oceny modeli i iteracji. „Możliwość wyświetlania danych wyjściowych obok kodu implementacji znacznie ułatwiła naszym inżynierom eksperymentowanie” – mówi Ahmed.

Wyniki: szybsze sprawdzanie
Integracja Gemini miała znaczący wpływ na Optimal AI i jej klientów. Najważniejsze wyniki to:
- O 50% skrócenie czasu cyklu żądania pull: inżynierowie spędzają mniej czasu na oczekiwaniu na sprawdzenie i więcej na kodowaniu.
- Szybkie wdrażanie i rozszerzanie przez klientów: firmy takie jak MongoDB znacznie zwiększyły wykorzystanie optymalnej AI po zaobserwowaniu jej zalet. Liczba inżynierów wzrosła z 5 do ponad 40.
- Udany pre-seed funding round w wysokości 2,25 mln USD: udało się to w ramach prywatnej wersji beta, głównie dzięki zainteresowaniu i wynikom uzyskanym dzięki funkcjom korzystającym z interfejsu Gemini API.
„Zespół uwielbia to, że Optibot pomaga skrócić czas sprawdzania PR o połowę, dzięki czemu inżynierowie mogą poświęcać więcej czasu na kodowanie zamiast na oczekiwanie na zatwierdzenia” – mówi Ahmed.
Co dalej
Optimal AI skupia się na rozszerzaniu pakietu agentów AI, aby zautomatyzować jeszcze więcej powtarzalnych zadań. Obecnie opracowują narzędzie „Code Radar”, które ma samodzielnie monitorować, aktualizować i chronić bazy kodu. Syed Ahmed podsumowuje swoją przygodę z interfejsem Gemini API i podaje kilka rad dla innych deweloperów:
„Przejdźcie od razu do Google AI Studio – ma ono lepsze narzędzia i dokumentację oraz pozwala na znacznie wydajniejsze eksperymentowanie”. Podkreśla też, że należy w pełni wykorzystać okno kontekstu modelu Gemini. Dostarczaj modelom jak najwięcej istotnego kontekstu...im więcej kontekstu, tym lepsze wnioskowanie AI”.
Sukces Optimal AI pokazuje, jak interfejs Gemini API może zmienić proces tworzenia oprogramowania, umożliwiając zespołom szybsze tworzenie lepszego oprogramowania.
Chcesz tworzyć? Zapoznaj się z dokumentacją Gemini API i zacznij korzystać z Google AI Studio.