공유

2024년 10월 30일

Gemini API로 AI 에이전트를 프로덕션으로 가져오기

비샬 다르마디카리

제품 솔루션 엔지니어

페이지 베일리

AI 개발자 환경 엔지니어

아담 실버맨

Agency AI COO

AgentOps 쇼케이스 히어로

AI 에이전트를 빌드하고 배포하는 것은 흥미로운 분야이지만 프로덕션 환경에서 이러한 복잡한 시스템을 관리하려면 강력한 관측 가능성을 갖추어야 합니다. 상담사 모니터링, LLM 비용 추적, 벤치마킹 등을 위한 Python SDK인 AgentOps를 사용하면 특히 Gemini API의 강력한 성능과 비용 효율성을 활용하여 프로토타입에서 프로덕션으로 상담사를 전환할 수 있습니다.

Gemini가 작동하는 모습을 보여주는 AgentOps 플랫폼 UI

Gemini의 이점

AgentOps의 팀인 Agency AI의 COO인 아담 실버맨은 AI 상담사를 대규모로 배포하는 기업의 경우 비용이 중요한 요소라고 설명합니다. "기업에서 LLM 통화에 월 8만 달러를 지출하는 경우가 있습니다. Gemini 1.5를 사용하면 동일한 결과를 얻기 위해 수천 달러가 들었을 것입니다."

이러한 비용 효율성과 Gemini의 강력한 언어 이해 및 생성 기능을 결합하면 정교한 AI 에이전트를 빌드하는 개발자에게 이상적인 선택이 됩니다. 실버맨은 'Gemini 1.5 Flash를 사용하면 더 큰 모델과 비슷한 품질을 훨씬 저렴한 비용으로 빠르게 얻을 수 있습니다.'라고 말했습니다. 이를 통해 개발자는 비용 상승을 걱정하지 않고 복잡한 다단계 상담사 워크플로를 빌드하는 데 집중할 수 있습니다.

“다른 LLM 제공업체의 개별 상담사 실행 비용은 실행당 500달러 이상입니다. Gemini (1.5 Flash-8B)를 사용한 동일한 실행에는 50달러 미만의 비용이 듭니다."

— 아담 실버맨, Agency AI COO

분석 및 통계를 보여주는 AgentOps 대시보드의 샘플

AI 에이전트 지원

AgentOps는 LLM 호출뿐만 아니라 모든 에이전트 상호작용에 관한 데이터를 캡처하여 멀티 에이전트 시스템의 작동 방식을 종합적으로 보여줍니다. 이러한 세부적인 수준의 정보는 엔지니어링 및 규정 준수팀에 필수적이며 디버깅, 최적화, 감사 추적에 관한 중요한 통계를 제공합니다.

Gemini 모델을 AgentOps와 통합하는 것은 매우 간단하며 LiteLLM을 사용하면 몇 분 만에 완료할 수 있습니다. 개발자는 Gemini API 호출을 빠르게 파악하고, 비용을 실시간으로 추적하며, 프로덕션에서 상담사의 안정성을 보장할 수 있습니다.

향후 계획

AgentOps는 상담사 개발자가 프로젝트를 확장할 때 지원하기 위해 최선을 다하고 있습니다. Agency AI는 기업이 저렴하고 확장 가능한 상담사를 구축하는 복잡성을 해결하도록 지원하여 AgentOps와 Gemini API를 결합한 가치 제안을 더욱 공고히 하고 있습니다. 실버맨은 '가격에 민감한 개발자가 더 많이 상담사를 구축하도록 유도하고 있습니다.'라고 강조합니다.

Gemini 사용을 고려하는 개발자에게 실버맨은 분명한 조언을 전합니다. '한 번 사용해 보세요. 굉장히 인상적일 겁니다.'