Chia sẻ

NGÀY 30 THÁNG 10 NĂM 2024

Triển khai Trợ lý AI bằng Gemini API

Vishal Dharmadhikari

Kỹ sư giải pháp sản phẩm

Paige Bailey

Kỹ sư trải nghiệm dành cho nhà phát triển AI

Adam Silverman

Giám đốc điều hành, Agency AI

Hình ảnh chính trong phần giới thiệu AgentOps

Việc xây dựng và triển khai các tác nhân AI là một lĩnh vực mới mẻ và thú vị, nhưng việc quản lý những hệ thống phức tạp này trong môi trường sản xuất đòi hỏi khả năng quan sát mạnh mẽ. AgentOps, một SDK Python để theo dõi tác nhân, theo dõi chi phí LLM, đo điểm chuẩn và nhiều tính năng khác, giúp nhà phát triển đưa tác nhân của họ từ nguyên mẫu sang sản xuất, đặc biệt là khi kết hợp với sức mạnh và tính hiệu quả về chi phí của API Gemini.

Giao diện người dùng của nền tảng AgentOps cho thấy Gemini đang hoạt động

Lợi thế của Gemini

Adam Silverman, COO của Agency AI (nhóm đứng sau AgentOps) giải thích rằng chi phí là một yếu tố quan trọng đối với các doanh nghiệp triển khai các trợ lý AI trên quy mô lớn. "Chúng tôi đã thấy các doanh nghiệp chi tiêu 80.000 đô la mỗi tháng cho các cuộc gọi LLM. Với Gemini 1.5, chi phí này sẽ là vài nghìn đô la cho cùng một kết quả."

Tính hiệu quả về chi phí này, kết hợp với khả năng tạo và hiểu ngôn ngữ mạnh mẽ của Gemini, khiến Gemini trở thành lựa chọn lý tưởng cho các nhà phát triển xây dựng các tác nhân AI phức tạp. "Gemini 1.5 Flash mang lại cho chúng tôi chất lượng tương đương với các mô hình lớn hơn, với chi phí chỉ bằng một phần nhỏ trong khi vẫn cực kỳ nhanh", Silverman nói. Điều này cho phép nhà phát triển tập trung vào việc xây dựng quy trình làm việc phức tạp, nhiều bước cho trợ lý mà không lo lắng về chi phí tăng vọt.

"Chúng tôi nhận thấy các lần chạy riêng lẻ của tác nhân với các nhà cung cấp LLM khác có chi phí từ 500 USD trở lên cho mỗi lần chạy. Những lần chạy tương tự với Gemini (1.5 Flash-8B) có chi phí dưới 50 USD”.

– Adam Silverman, Giám đốc điều hành, Agency AI

Bản minh hoạ trang tổng quan AgentOps cho thấy số liệu phân tích và số liệu thống kê

Cung cấp năng lượng cho tác nhân AI

AgentOps thu thập dữ liệu về mọi lượt tương tác của tác nhân, chứ không chỉ các lệnh gọi LLM, cung cấp thông tin toàn diện về cách hoạt động của hệ thống nhiều tác nhân. Mức độ chi tiết này rất cần thiết cho các nhóm kỹ thuật và tuân thủ, cung cấp thông tin chi tiết quan trọng để gỡ lỗi, tối ưu hoá và theo dõi quy trình kiểm tra.

Việc tích hợp các mô hình Gemini với AgentOps rất đơn giản, thường chỉ mất vài phút khi sử dụng LiteLLM. Nhà phát triển có thể nhanh chóng nắm được các lệnh gọi API Gemini, theo dõi chi phí theo thời gian thực và đảm bảo độ tin cậy của các tác nhân trong quá trình sản xuất.

Hướng đến tương lai

AgentOps cam kết hỗ trợ các nhà phát triển trợ lý khi họ mở rộng quy mô dự án. AI dành cho đại lý đang giúp các doanh nghiệp giải quyết những vấn đề phức tạp trong việc xây dựng các nhân viên hỗ trợ có mức giá phải chăng và có thể mở rộng quy mô, củng cố thêm giá trị của việc kết hợp AgentOps với API Gemini. Như Silverman nhấn mạnh, "Điều này đang thúc đẩy nhiều nhà phát triển quan tâm đến giá hơn để xây dựng các tác nhân".

Đối với các nhà phát triển đang cân nhắc sử dụng Gemini, Silverman đưa ra lời khuyên rõ ràng: "Hãy thử dùng và bạn sẽ thấy ấn tượng".