Делиться

9 апреля 2025 г.

Масштабирование понимания кода: как Jolt AI использует API Gemini

Ев Спектор

Генеральный директор

Вишал Дхармадхикари

Инженер по разработке продуктовых решений

Герой демонстрации AgentOps

Разработчики, работающие с разветвленными, масштабными кодовыми базами, хорошо знакомы с этой проблемой. Понимание контекста, поиск нужных файлов и внесение изменений могут напоминать блуждание по лабиринту. Jolt AI решает эту проблему с помощью инструмента генерации кода и чата, разработанного специально для реальных кодовых баз объемом более 100 000 строк. Их секретное оружие для обеспечения как скорости, так и точности? API Gemini, в частности Gemini 2.0 Flash.

Миссия Jolt AI — дать разработчикам возможность мгновенно понимать и вносить свой вклад в любой код. Многие современные инструменты с трудом справляются с большими существующими кодовыми базами и требуют от пользователей ручного выбора контекстных файлов. Это утомительно и непрактично. Jolt AI использует инновационный семантический поиск, который точно и автоматически определяет соответствующие контекстные файлы. Это кардинально меняет подход к разработке функций, исправлению ошибок, адаптации новых сотрудников и многому другому.

Сгенерированная диаграмма потока состояний, визуализирующая логику приложения.

Задача, стоявшая перед Jolt AI, заключалась в поиске модели, которая могла бы обеспечить оптимальное сочетание скорости, согласованности и понимания кода для их поискового процесса. «Мы стремились ускорить три этапа в нашем поисковом процессе с использованием ИИ», — объясняет Ев Спектор, генеральный директор Jolt AI. «Каждый этап требует понимания различных языков программирования, фреймворков, пользовательского кода и намерений пользователя».

Gemini 2.0 Flash: скорость и улучшенное понимание кода

Представляем Gemini 2.0 Flash. Для Jolt AI эта модель обеспечила необходимый скачок в производительности. «После быстрой настройки нам удалось получить более стабильный и качественный результат с Gemini 2.0 Flash, чем с более медленной и громоздкой моделью от другого поставщика», — отмечает Спектор.

Как Jolt AI использует Gemini 2.0 Flash? Он обеспечивает работу нескольких важных этапов в их конвейере поиска кода, предоставляя скорость и точность, необходимые для навигации и понимания огромных репозиториев. Хотя точные детали являются их «секретным ингредиентом», влияние очевидно: Gemini 2.0 Flash позволяет Jolt AI быстро находить нужную информацию в сложных кодовых базах.

Переход на API Gemini оказался на удивление эффективным. «На внедрение SDK ушло всего пара часов, а на оперативную настройку и тестирование — два дня», — сообщает Спектор. Команда также использовала Google AI Studio для быстрого генерирования идей и настройки, что оптимизировало процесс разработки.

Результат: быстрее, качественнее и экономичнее.

Переход на технологию Gemini 2.0 Flash принес Jolt AI впечатляющие результаты:

  • Сокращение времени отклика на 70-80%: этапы поиска, использующие искусственный интеллект, значительно ускоряются.
  • Более качественные и стабильные ответы: пользователи получают лучшие результаты более чем в два раза быстрее.
  • Снижение затрат на 80%: перенесенные рабочие нагрузки ИИ теперь значительно более экономичны.


«Мы получаем более качественные ответы для наших пользователей более чем в два раза быстрее», — подчеркивает Спектор. Такое сочетание скорости, качества и экономии средств подчеркивает возможности флэш-памяти Gemini 2.0 для приложений, критически важных с точки зрения производительности.

Перспективы на будущее и мнение разработчиков

Jolt AI активно расширяет поддержку своих IDE, готовя к выпуску плагин для JetBrains, и изучает возможности доступа к API. Компания Spektor рада более широкому потенциалу Jolt AI в масштабах предприятий, от помощи разработчикам и руководителям инженерных отделов до поддержки команд обслуживания клиентов и создания автоматизированных конвейеров обработки кода с использованием ИИ.

Размышляя о своем опыте работы с API Gemini, Спектор дает следующий совет коллегам-разработчикам:

«Gemini 2.0 Flash обладает большими возможностями, чем вы думаете, не стоит недооценивать его. Он очень хорошо запоминает данные — намного лучше, чем некоторые медленные и более дорогие модели». Он также призывает разработчиков изучить новейшие модели семейства Gemini: «Новое поколение, Gemini 2.0 Flash и Gemini 2.5 Pro, заслуживает внимания. Gemini 2.0 Flash сделал наш продукт более чем в два раза быстрее, одновременно улучшив качество отклика. Новые модели — это значительный шаг вперед».

История успеха Jolt AI наглядно демонстрирует, как скорость и возможности Gemini 2.0 Flash могут значительно улучшить инструменты для разработчиков, использующих искусственный интеллект, особенно те, которые работают со сложными большими кодовыми базами.

Готовы к созданию? Изучите документацию по API Gemini и начните работу с Google AI Studio уже сегодня.

Калкам

Быстрый и точный анализ пищевой ценности с помощью CalCam и Gemini 2.0 Flash.