分享

2024 年 10 月 30 日

使用 Gemini API 將 AI 代理程式部署至正式環境

Vishal Dharmadhikari

產品解決方案工程師

Paige Bailey

AI 開發人員體驗工程師

Adam Silverman

Agency AI 營運長

AgentOps 展示主頁橫幅

建構及部署 AI 代理程式是令人振奮的領域,但在正式環境中管理這些複雜系統時,需要強大的可觀測性。AgentOps 是 Python SDK,可監控代理程式、追蹤 LLM 成本、進行基準化等,協助開發人員將代理程式從原型轉移至正式環境,搭配 Gemini API 的強大功能和高成本效益,效果更佳。

AgentOps 平台使用者介面展示了 Gemini 的實際運作情況

Gemini 的優勢

AgentOps 背後的團隊 Agency AI 營運長 Adam Silverman 說明,對於大規模部署 AI 代理的企業而言,成本是關鍵因素。「我們發現企業每月花費在 LLM 呼叫上的金額高達 $80,000 美元。如果使用 Gemini 1.5,同樣的輸出內容可能要花費幾千美元。」

Gemini 不僅經濟實惠,還具備強大的語言理解和生成能力,因此是開發人員建構進階 AI 代理程式的理想選擇。「Gemini 1.5 閃光燈以極低的成本,為我們提供了與更大型號閃光燈相當的質量,同時速度也非常快,」西爾弗曼說。開發人員可以專心建構複雜的多步驟代理程式工作流程,不必擔心費用失控。

「我們發現,使用其他大型語言模型供應商的個別代理程式執行費用,每次高達 $500 美元以上。使用 Gemini (1.5 Flash-8B) 執行相同作業的成本不到 $50 美元。」

- Agency AI 營運長 Adam Silverman

AgentOps 儀表板模型,展示分析和統計數據

支援 AI 代理

AgentOps 會擷取每個代理互動的資料 (不只是 LLM 呼叫),全面掌握多代理系統的運作方式。工程和法規團隊需要這類詳細資料,才能取得偵錯、最佳化和稽核追蹤記錄的重要洞察。

將 Gemini 模型與 AgentOps 整合非常簡單,使用 LiteLLM 通常只需幾分鐘即可完成。開發人員可以快速掌握 Gemini API 呼叫情形、即時追蹤費用,並確保代理程式在正式環境中的可靠性。

展望未來

AgentOps 致力於在專案擴大規模時,為代理程式開發人員提供支援。Agency AI 可協助企業建構經濟實惠且可擴充的代理程式,進一步鞏固 AgentOps 與 Gemini API 結合的價值主張。正如 Silverman 強調,「這項措施可吸引更多對價格敏感的開發人員建構代理程式」。

對於考慮使用 Gemini 的開發人員,Silverman 的建議很明確:「試試看,你會感到驚豔。」