NGÀY 9 THÁNG 4 NĂM 2025
Mở rộng quy mô tính năng Hiểu mã: Cách Jolt AI tận dụng Gemini API

Các nhà phát triển làm việc với những cơ sở mã rộng lớn ở quy mô sản xuất đều hiểu rõ khó khăn này. Việc hiểu rõ bối cảnh, tìm các tệp liên quan và thực hiện các thay đổi có thể giống như đang đi trong một mê cung. Jolt AI đang trực tiếp giải quyết vấn đề này bằng một công cụ trò chuyện và tạo mã được thiết kế riêng cho các cơ sở mã thực tế có hơn 100.000 dòng. Vũ khí bí mật của họ để mang lại cả tốc độ và độ chính xác là gì? Gemini API, đặc biệt là Gemini 2.0 Flash.
Sứ mệnh của Jolt AI là giúp các nhà phát triển hiểu và đóng góp ngay lập tức cho mọi cơ sở mã. Nhiều công cụ hiện nay gặp khó khăn với các cơ sở mã lớn hiện có và yêu cầu người dùng chọn tệp ngữ cảnh theo cách thủ công. Việc này tẻ nhạt và không thực tế. Jolt AI sử dụng một tính năng tìm kiếm ngữ nghĩa mới, giúp xác định chính xác và tự động các tệp ngữ cảnh có liên quan. Đây là một yếu tố thay đổi cuộc chơi đối với việc phát triển tính năng, sửa lỗi, giới thiệu và nhiều việc khác.

Thách thức đối với Jolt AI là tìm ra một mô hình có thể hỗ trợ quy trình tìm kiếm của họ với sự kết hợp phù hợp giữa tốc độ, tính nhất quán và khả năng hiểu mã. Yev Spektor, Giám đốc điều hành của Jolt AI, giải thích: "Chúng tôi muốn tăng tốc 3 bước dựa trên AI trong quy trình tìm kiếm mã của mình". "Mỗi bước đều đòi hỏi bạn phải hiểu rõ nhiều ngôn ngữ lập trình, khung, mã người dùng và ý định của người dùng."
Gemini 2.0 Flash: Cung cấp tốc độ và khả năng hiểu mã nâng cao
Giới thiệu Gemini 2.0 Flash. Đối với Jolt AI, mô hình này đã mang lại bước tiến vượt bậc về hiệu suất mà họ mong muốn. Spektor cho biết: "Sau khi điều chỉnh một số câu lệnh, chúng tôi đã có thể nhận được kết quả nhất quán và chất lượng cao hơn với Gemini 2.0 Flash so với một mô hình chậm hơn và lớn hơn của một nhà cung cấp khác".
Jolt AI đang sử dụng Gemini 2.0 Flash như thế nào? Công cụ này hỗ trợ một số bước quan trọng trong quy trình tìm kiếm mã của họ, mang lại tốc độ và độ chính xác cần thiết để điều hướng và hiểu rõ các kho lưu trữ khổng lồ. Mặc dù các chi tiết chính xác là "bí quyết" của họ, nhưng tác động của Gemini 2.0 Flash là rất rõ ràng: Gemini 2.0 Flash giúp Jolt AI nhanh chóng tìm ra thông tin phù hợp trong các cơ sở mã phức tạp.
Việc chuyển sang Gemini API mang lại hiệu quả đáng kể. Spektor cho biết: "Mất vài giờ để triển khai SDK và 2 ngày để điều chỉnh và thử nghiệm câu lệnh". Nhóm này cũng sử dụng Google AI Studio để lên ý tưởng và điều chỉnh câu lệnh, giúp đơn giản hoá quy trình phát triển.
Kết quả: Nhanh hơn, chất lượng cao hơn và tiết kiệm chi phí hơn
Việc chuyển sang Gemini 2.0 Flash đã mang lại kết quả ấn tượng cho Jolt AI:
- Giảm 70-80% thời gian phản hồi: Các bước dựa trên AI trong quy trình tìm kiếm của họ nhanh hơn đáng kể.
- Câu trả lời chất lượng cao hơn và nhất quán hơn: Người dùng nhận được kết quả tốt hơn nhanh gấp đôi.
- Giảm 80% chi phí: Giờ đây, các khối lượng công việc AI đã di chuyển tiết kiệm chi phí hơn đáng kể.
"Chúng tôi nhận được câu trả lời chất lượng cao hơn cho người dùng nhanh gấp hơn 2 lần", Spektor nhấn mạnh. Sự kết hợp giữa tốc độ, chất lượng và khả năng tiết kiệm chi phí này cho thấy sức mạnh của Gemini 2.0 Flash đối với các ứng dụng quan trọng về hiệu suất.
Tập trung vào tương lai và thông tin chi tiết dành cho nhà phát triển
Jolt AI đang tích cực mở rộng khả năng hỗ trợ IDE bằng một trình bổ trợ JetBrains sắp ra mắt và khám phá khả năng truy cập API. Spektor rất hào hứng với tiềm năng rộng lớn hơn của Jolt AI trên toàn doanh nghiệp, từ việc hỗ trợ nhà phát triển và lãnh đạo kỹ thuật đến việc hỗ trợ nhóm hỗ trợ khách hàng và cho phép các quy trình mã AI tự động.
Nhìn lại hành trình của mình với Gemini API, Spektor đưa ra lời khuyên sau đây cho các nhà phát triển khác:
"Gemini 2.0 Flash có nhiều khả năng hơn bạn nghĩ, đừng bỏ lỡ cơ hội sử dụng mô hình này. Mô hình này rất giỏi trong việc gợi lại thông tin – tốt hơn nhiều so với một số mô hình chậm và tốn kém hơn." Ông cũng khuyến khích các nhà phát triển khám phá những mô hình mới nhất thuộc nhóm mô hình Gemini: "Thế hệ mới, Gemini 2.0 Flash và Gemini 2.5 Pro, cần được xem xét. Gemini 2.0 Flash đã giúp sản phẩm của chúng tôi nhanh hơn gấp đôi mà vẫn tăng chất lượng câu trả lời. Các mô hình mới là một hàm bước quan trọng."
Câu chuyện thành công của Jolt AI cho thấy tốc độ và khả năng của Gemini 2.0 Flash có thể cải thiện đáng kể các công cụ dành cho nhà phát triển dựa trên AI, đặc biệt là những công cụ xử lý sự phức tạp của các cơ sở mã lớn.
Bạn đã sẵn sàng xây dựng? Khám phá tài liệu về Gemini API và bắt đầu sử dụng Google AI Studio ngay hôm nay.