2025 年 4 月 9 日
擴大程式碼瞭解:Jolt AI 如何運用 Gemini API

開發人員在處理龐大的正式版規模程式碼庫時,都會遇到類似的困擾。瞭解脈絡、尋找相關檔案並進行變更,就像在迷宮中穿梭一樣。Jolt AI 正透過專為現實世界中 10 萬行以上程式碼集所設計的 codegen 和聊天工具,直接解決這個問題。他們如何兼顧速度和準確度?Gemini API,特別是 Gemini 2.0 Flash。
Jolt AI 的使命是讓開發人員能立即瞭解任何程式碼集,並對其做出貢獻。許多現有的工具無法處理大型現有程式碼集,且需要使用者手動選取內容檔案。這麼做既費時又不切實際。Jolt AI 採用新型語意搜尋技術,可自動準確識別相關的背景檔案。這項功能可徹底翻轉功能開發、錯誤修正、新手上路等工作。

Jolt AI 面臨的挑戰,是如何找到能為搜尋管道提供速度、一致性和程式碼理解能力的模型。Jolt AI 執行長 Yev Spektor 表示:「我們希望加快程式碼搜尋管道中 3 個 AI 輔助步驟的速度。」「每個步驟都需要瞭解各種程式設計語言、架構、使用者程式碼和使用者意圖。」
Gemini 2.0 Flash:提供速度和強化的程式碼理解能力
進入 Gemini 2.0 Flash。對 Jolt AI 來說,這個模型帶來了他們期盼的效能飛躍。Spektor 指出:「經過快速調整後,我們發現 Gemini 2.0 Flash 的輸出結果更為一致且品質更高,相較之下,其他供應商的模型速度較慢,且體積較大。」
Jolt AI 如何使用 Gemini 2.0 Flash?這項工具可支援程式碼搜尋管道中的幾個關鍵步驟,提供所需的速度和準確度,讓使用者能夠瀏覽及瞭解龐大的存放區。雖然確切的細節是他們的「秘密武器」,但影響力顯而易見:Gemini 2.0 Flash 可讓 Jolt AI 在複雜的程式碼庫中快速顯示正確的資訊。
切換至 Gemini API 後,效率明顯提升。Spektor 表示:「實作 SDK 只需要幾小時,但需要 2 天來進行快速調整和測試。」團隊也使用 Google AI Studio 發想提示並進行調整,簡化開發程序。
結果:更快、更高品質且更具成本效益
轉換至 Gemini 2.0 Flash 後,Jolt AI 的成果令人驚艷:
- 回應時間縮短 70% 至 80%:搜尋管道中的 AI 輔助步驟速度明顯加快。
- 品質更高且更一致的答案:使用者可在兩倍以上的速度取得更優質的結果。
- 降低 80% 的成本:遷移後的 AI 工作負載現在更具成本效益。
Spektor 強調:「我們提供給使用者的答案品質比以往高出兩倍以上。」速度、品質和成本節省的完美結合,凸顯 Gemini 2.0 Flash 在效能至關重要的應用程式中展現的強大威力。
未來重點和開發人員洞察資料
Jolt AI 正積極擴大 IDE 支援範圍,並推出即將推出的 JetBrains 外掛程式,以及探索 API 存取權。Spektor 很高興 Jolt AI 在企業中的潛力更廣,從協助開發人員和工程主管,到支援客戶服務團隊,以及啟用自動 AI 程式碼管道。
回顧他們使用 Gemini API 的歷程,Spektor 向其他開發人員提供以下建議:
「Gemini 2.0 Flash 的功能比你想像的更強大,千萬別錯過。喚回率非常高,比起某些速度較慢、價格較高的模型好上許多。」他也鼓勵開發人員探索 Gemini 系列的最新模型:「新一代的 Gemini 2.0 Flash 和 Gemini 2.5 Pro 值得一試。使用 Gemini 2.0 Flash 後,我們的產品速度提升了兩倍,回覆品質也更加優異。新模型是重大的進步。」
Jolt AI 的成功案例說明 Gemini 2.0 Flash 的速度和功能如何大幅提升 AI 輔助開發人員工具,尤其是處理大型程式碼庫的複雜性。
準備開始建構了嗎?請參閱 Gemini API 說明文件,並立即開始使用 Google AI Studio。