分享

2024 年 10 月 30 日

使用 Gemini API 將 AI 代理程式導入正式環境

Vishal Dharmadhikari

產品解決方案工程師

Paige Bailey

AI 開發人員體驗工程師

Adam Silverman

營運長,Agency AI

AgentOps 展示主頁橫幅

建構及部署 AI 服務專員是令人振奮的先進技術,但在實際工作環境中管理這些複雜的系統,需要強大的可觀察性。AgentOps 是用於監控介面代理程式、追蹤 LLM 成本、基準測試等的 Python SDK,可協助開發人員將介面代理程式從原型轉為正式版,尤其是搭配 Gemini API 的強大功能和經濟效益時。

AgentOps 平台 UI 顯示 Gemini 的實際運作情形

Gemini 的優勢

Agency AI 的 COO Adam Silverman 是 AgentOps 團隊成員,他表示,企業大規模部署 AI 服務時,成本是關鍵因素。「我們發現企業每月花費 $80,000 美元用於 LLM 通話。同樣的輸出結果,如果使用 Gemini 1.5,成本可能要花上數千美元。」

這項服務的成本效益高,加上 Gemini 強大的語言理解和生成功能,是開發人員打造複雜 AI 代理程式的理想選擇。「Gemini 1.5 Flash 的品質與大型模型相當,但價格卻只要一小部分,而且速度極快。」Silverman 說。如此一來,開發人員就能專注於建構複雜的多步驟服務專員工作流程,不必擔心成本超支。

「我們發現,透過其他 LLM 供應商執行個別代理人作業,每次執行的費用超過 $500 美元。同樣在 Gemini (1.5 Flash-8B) 上執行的運算,費用不到 $50 美元。」

- 代理商 AI 營運長 Adam Silverman

AgentOps 儀表板模擬圖,顯示分析和統計資料

為 AI 虛擬服務專員提供動力

AgentOps 會擷取每個服務台人員互動資料 (而非僅限於 LLM 呼叫),提供多服務台系統運作方式的完整檢視畫面。工程和法規遵循團隊必須掌握這類精細的詳細資料,才能提供偵錯、最佳化和稽核記錄的重要洞察資料。

整合 Gemini 模型與 AgentOps 非常簡單,通常只需幾分鐘即可完成,開發人員可以快速掌握 Gemini API 呼叫的相關資訊、即時追蹤費用,並確保服務代理在實際環境中的可靠度。

展望未來

AgentOps 致力於協助代理程式開發人員擴大專案規模。Agency AI 可協助企業克服建構可負擔且可擴充的服務專員的複雜挑戰,進一步強化 AgentOps 與 Gemini API 的價值主張。正如 Silverman 所強調的,「這項功能將吸引更多重視價格的開發人員建構服務代理程式。」

對於考慮使用 Gemini 的開發人員,Silverman 的建議很明確:「試試看,你會很驚豔。」