Chia sẻ

NGÀY 9 THÁNG 4 NĂM 2025

Mở rộng khả năng hiểu mã: Cách AI của Jolt tận dụng Gemini API

Yev Spektor

Giám đốc điều hành

Vishal Dharmadhikari

Kỹ sư giải pháp sản phẩm

Hình ảnh chính trong phần giới thiệu AgentOps

Những nhà phát triển làm việc với cơ sở mã rộng lớn, ở quy mô sản xuất đều hiểu rõ sự phiền toái này. Việc tìm hiểu ngữ cảnh, tìm tệp liên quan và thực hiện thay đổi có thể giống như việc đi qua mê cung. Jolt AI đang giải quyết vấn đề này bằng một công cụ tạo mã và trò chuyện được thiết kế riêng cho các cơ sở mã có hơn 100 nghìn dòng trong thực tế. Vũ khí bí mật của họ để mang lại cả tốc độ và độ chính xác? Gemini API, đặc biệt là Gemini 2.0 Flash.

Sứ mệnh của Jolt AI là giúp nhà phát triển hiểu và đóng góp tức thì cho bất kỳ cơ sở mã nào. Nhiều công cụ hiện nay gặp khó khăn với các cơ sở mã hiện có, lớn và yêu cầu người dùng phải chọn tệp ngữ cảnh theo cách thủ công. Việc này rất tẻ nhạt và không thực tế. Jolt AI sử dụng một công cụ tìm kiếm ngữ nghĩa mới giúp xác định chính xác và tự động các tệp ngữ cảnh có liên quan. Đây là một yếu tố thay đổi cuộc chơi đối với việc phát triển tính năng, sửa lỗi, làm quen và nhiều hoạt động khác.

Sơ đồ quy trình trạng thái đã tạo giúp trực quan hoá logic ứng dụng.

Thách thức đối với Jolt AI là tìm một mô hình có thể hỗ trợ quy trình tìm kiếm của họ bằng cách kết hợp đúng tốc độ, tính nhất quán và khả năng hiểu mã. Yev Spektor, Giám đốc điều hành của Jolt AI, giải thích: "Chúng tôi muốn tăng tốc 3 bước dựa trên AI trong quy trình tìm kiếm mã". "Mỗi bước đều đòi hỏi bạn phải hiểu rõ nhiều ngôn ngữ lập trình, khung, mã người dùng và ý định của người dùng".

Gemini 2.0 Flash: Cung cấp tốc độ và khả năng hiểu mã nâng cao

Truy cập vào Gemini 2.0 Flash. Đối với Jolt AI, mô hình này đã mang lại bước nhảy vọt về hiệu suất mà họ đang tìm kiếm. "Sau khi điều chỉnh nhanh, chúng tôi có thể nhận được kết quả nhất quán hơn, chất lượng cao hơn với Gemini 2.0 Flash so với mô hình lớn hơn, chậm hơn của một nhà cung cấp khác", Spektor lưu ý.

Jolt AI sử dụng Gemini 2.0 Flash như thế nào? Công cụ này hỗ trợ một số bước quan trọng trong quy trình tìm kiếm mã, cung cấp tốc độ và độ chính xác cần thiết để điều hướng và hiểu các kho lưu trữ khổng lồ. Mặc dù thông tin chi tiết chính xác là "bí quyết" của họ, nhưng tác động là rõ ràng: Gemini 2.0 Flash cho phép AI của Jolt nhanh chóng hiển thị thông tin phù hợp trong các cơ sở mã phức tạp.

Việc chuyển sang Gemini API đã mang lại hiệu quả đáng kể. "Mất vài giờ để triển khai SDK và 2 ngày để điều chỉnh và kiểm thử nhanh", Spektor báo cáo. Nhóm cũng sử dụng Google AI Studio để lên ý tưởng và điều chỉnh nhanh chóng, giúp đơn giản hoá quy trình phát triển.

Kết quả: Nhanh hơn, chất lượng cao hơn và tiết kiệm chi phí hơn

Việc chuyển sang Gemini 2.0 Flash đã mang lại kết quả ấn tượng cho AI Jolt:

  • Giảm 70-80% thời gian phản hồi: Các bước dựa trên AI trong quy trình tìm kiếm của họ nhanh hơn đáng kể.
  • Câu trả lời có chất lượng cao hơn và nhất quán hơn: Người dùng nhận được kết quả tốt hơn với tốc độ nhanh hơn gấp đôi.
  • Giảm chi phí 80%: Giờ đây, khối lượng công việc AI đã di chuyển có chi phí hiệu quả hơn đáng kể.


"Chúng tôi đang nhận được câu trả lời chất lượng cao hơn cho người dùng nhanh hơn gấp đôi", Spektor nhấn mạnh. Sự kết hợp giữa tốc độ, chất lượng và khả năng tiết kiệm chi phí này nhấn mạnh sức mạnh của Gemini 2.0 Flash đối với các ứng dụng quan trọng về hiệu suất.

Mục tiêu trong tương lai và thông tin chi tiết dành cho nhà phát triển

Jolt AI đang tích cực mở rộng dịch vụ hỗ trợ IDE bằng một trình bổ trợ JetBrains sắp ra mắt và khám phá khả năng hỗ trợ tiếp cận API. Spektor rất hào hứng với tiềm năng rộng lớn hơn của Jolt AI trên các doanh nghiệp, từ việc hỗ trợ nhà phát triển và các nhà lãnh đạo kỹ thuật đến việc hỗ trợ các nhóm hỗ trợ khách hàng và tạo điều kiện cho quy trình mã AI tự động.

Khi nhìn lại hành trình của mình với API Gemini, Spektor đưa ra lời khuyên sau đây cho các nhà phát triển khác:

"Gemini 2.0 Flash có nhiều khả năng hơn bạn nghĩ, đừng bỏ qua API này. Mô hình này có khả năng gợi nhắc rất tốt – tốt hơn nhiều so với một số mô hình chậm và đắt tiền hơn." Ông cũng khuyến khích các nhà phát triển khám phá các mô hình mới nhất trong nhóm Gemini: "Bạn cần xem xét thế hệ mới, Gemini 2.0 Flash và Gemini 2.5 Pro. Gemini 2.0 Flash giúp sản phẩm của chúng tôi nhanh hơn gấp đôi, đồng thời tăng chất lượng của câu trả lời. Các mô hình mới là một hàm bước lớn."

Câu chuyện thành công của Jolt AI cho thấy tốc độ và khả năng của Gemini 2.0 Flash có thể nâng cao đáng kể các công cụ dành cho nhà phát triển dựa trên AI, đặc biệt là những công cụ xử lý sự phức tạp của cơ sở mã lớn.

Bạn đã sẵn sàng tạo ứng dụng chưa? Khám phá tài liệu về Gemini API và bắt đầu sử dụng Google AI Studio ngay hôm nay.