30. OKTOBER 2024
KI-Chatbots mit der Gemini API in Produktion bringen
Das Erstellen und Bereitstellen von KI-Agenten ist ein spannendes Thema. Die Verwaltung dieser komplexen Systeme in einer Produktionsumgebung erfordert jedoch eine robuste Beobachtbarkeit. AgentOps ist ein Python SDK für die Überwachung von Kundenservicemitarbeitern, die Kostenverfolgung für LLMs, Benchmarking und mehr. Damit können Entwickler ihre Kundenservicemitarbeiter vom Prototyp in die Produktion übernehmen, insbesondere in Kombination mit der Leistungsfähigkeit und Kosteneffizienz der Gemini API.
Vorteile von Gemini
Adam Silverman, COO von Agency AI, dem Team hinter AgentOps, erklärt, dass die Kosten ein entscheidender Faktor für Unternehmen sind, die KI-Chatbots im großen Stil einsetzen. „Wir haben gesehen,dass Unternehmen 80.000 $pro Monat für LLM-Anrufe ausgeben. Mit Gemini 1.5 wären dafür einige tausend Dollar angefallen.“
Diese Kosteneffizienz in Kombination mit den leistungsstarken Sprachverständnis- und ‑generierungsfunktionen von Gemini macht es zu einer idealen Wahl für Entwickler, die ausgefeilte KI-Agenten erstellen. „Gemini 1.5 Flash bietet eine vergleichbare Qualität wie größere Modelle, zu einem Bruchteil der Kosten und ist dabei unglaublich schnell“, sagt Silverman. So können sich Entwickler auf die Entwicklung komplexer, mehrstufiger Kundenservice-Workflows konzentrieren, ohne sich Gedanken über unkontrollierte Kosten machen zu müssen.
„Wir haben festgestellt, dass einzelne Agentenläufe bei anderen LLM-Anbietern mehr als 500 $pro Lauf kosten. Dieselben Ausführungen mit Gemini (1.5 Flash-8B) kosten weniger als 50 $.“
KI-Agents
AgentOps erfasst Daten zu jeder Interaktion mit Kundenservicemitarbeitern, nicht nur zu LLM-Anrufen, und bietet so einen umfassenden Überblick über die Funktionsweise von Multi-Agent-Systemen. Diese detaillierten Informationen sind für Engineering- und Compliance-Teams unerlässlich und bieten wichtige Einblicke für die Fehlerbehebung, Optimierung und Audit-Trails.
Die Einbindung von Gemini-Modellen in AgentOps ist erstaunlich einfach und dauert mit LiteLLM oft nur wenige Minuten. Entwickler können schnell einen Überblick über ihre Gemini API-Aufrufe erhalten, Kosten in Echtzeit verfolgen und die Zuverlässigkeit ihrer Kundenservicemitarbeiter in der Produktion gewährleisten.
Zukunftspläne
AgentOps unterstützt Entwickler von Kundenservicemitarbeitern bei der Skalierung ihrer Projekte. Agency AI hilft Unternehmen dabei, die Komplexität beim Erstellen kostengünstiger, skalierbarer Kundenservicemitarbeiter zu bewältigen. So wird das Nutzenversprechen der Kombination von AgentOps mit der Gemini API weiter gestärkt. Wie Silverman betont, „bewegt es mehr preisbewusste Entwickler dazu, Agenten zu entwickeln“.
Für Entwickler, die Gemini in Betracht ziehen, hat Silverman einen klaren Rat: „Probieren Sie es aus, Sie werden beeindruckt sein.“