共有

2024 年 10 月 30 日

Gemini API を使用して AI エージェントを本番環境に導入する

Vishal Dharmadhikari

プロダクト ソリューション エンジニア

Paige Bailey

AI デベロッパー エクスペリエンス エンジニア

Adam Silverman

COO、Agency AI

AgentOps のショーケースのヒーロー

AI エージェントの構築とデプロイはエキサイティングなフロンティアですが、本番環境でこれらの複雑なシステムを管理するには、堅牢なオブザーバビリティが必要です。エージェントのモニタリング、LLM の費用追跡、ベンチマークなどを行うための Python SDK である AgentOps を使用すると、特に Gemini API の能力と費用対効果を組み合わせることで、プロトタイプから本番環境へのエージェントの移行を容易に行うことができます。

Gemini の動作を示す AgentOps プラットフォーム UI

Gemini のメリット

AgentOps を開発したチームである Agency AI の COO である Adam Silverman 氏は、AI エージェントを大規模にデプロイする企業にとって、費用は重要な要素であると説明しています。「企業が LLM 通話に毎月 8 万ドルを費やしているのを目にしています。ジェミニ 1.5 では、同じ出力を得るために数千ドルかかっていたでしょう。」

この費用対効果と Gemini の強力な言語理解と生成機能を組み合わせることで、高度な AI エージェントを構築するデベロッパーにとって理想的な選択肢となります。「Gemini 1.5 Flash は、より大きなモデルに匹敵する品質を、わずかなコストで、しかも驚くほど高速に実現します」と Silverman 氏は語ります。これにより、開発者はコストの急増を心配することなく、複雑で複数ステップのエージェント ワークフローの構築に集中できます。

「他の LLM プロバイダの個々のエージェント実行では、実行あたり $500 以上の費用がかかることが確認されています。Gemini(1.5 Flash-8B)で同じ実行を行うと、50 ドル未満で済みます。」

— Agency AI、COO、Adam Silverman

分析と統計を表示する AgentOps ダッシュボードのモックアップ

AI エージェントの強化

AgentOps は、LLM 呼び出しだけでなく、すべてのエージェント インタラクションに関するデータをキャプチャし、マルチエージェント システムの動作を包括的に把握できるようにします。この詳細なレベルの情報は、エンジニアリング チームとコンプライアンス チームにとって不可欠であり、デバッグ、最適化、監査証跡に関する重要な分析情報を提供します。

Gemini モデルと AgentOps の統合は非常に簡単で、LiteLLM を使用すると数分で完了することがよくあります。開発者は、Gemini API 呼び出しを迅速に可視化し、コストをリアルタイムで追跡し、本番環境でのエージェントの信頼性を確保できます。

今後の対応

AgentOps は、エージェント開発者がプロジェクトを拡大できるようサポートすることに尽力しています。Agency AI は、手頃な価格でスケーラブルなエージェントの構築という複雑な課題を企業が解決できるよう支援し、AgentOps と Gemini API を組み合わせるという価値提案をさらに強化します。シルバーマン氏は「価格に敏感な開発業者がエージェントを構築するよう促している」と強調する。

Gemini の使用を検討している開発者に対して、Silverman 氏のアドバイスは明確です。「試してみて、きっと感動するはずです。」