Teilen

30. OKTOBER 2024

KI-Chatbots mit der Gemini API in Produktion bringen

Vishal Dharmadhikari

Product Solutions Engineer

Paige Bailey

AI Developer Experience Engineer

Adam Silverman

COO, Agency AI

AgentOps-Demo – Hero

Das Erstellen und Bereitstellen von KI-Agenten ist ein spannendes Thema. Die Verwaltung dieser komplexen Systeme in einer Produktionsumgebung erfordert jedoch eine robuste Beobachtbarkeit. AgentOps ist ein Python SDK für die Überwachung von Kundenservicemitarbeitern, die Kostenverfolgung für LLMs, Benchmarking und mehr. Damit können Entwickler ihre Kundenservicemitarbeiter vom Prototyp in die Produktion übernehmen, insbesondere in Kombination mit der Leistungsfähigkeit und Kosteneffizienz der Gemini API.

Benutzeroberfläche der AgentOps-Plattform mit Gemini

Vorteile von Gemini

Adam Silverman, COO von Agency AI, dem Team hinter AgentOps, erklärt, dass die Kosten ein entscheidender Faktor für Unternehmen sind, die KI-Chatbots im großen Stil einsetzen. „Wir haben gesehen,dass Unternehmen 80.000 $pro Monat für LLM-Anrufe ausgeben. Mit Gemini 1.5 wären dafür einige tausend Dollar angefallen.“

Diese Kosteneffizienz in Kombination mit den leistungsstarken Sprachverständnis- und ‑generierungsfunktionen von Gemini macht es zu einer idealen Wahl für Entwickler, die ausgefeilte KI-Agenten erstellen. „Gemini 1.5 Flash bietet eine vergleichbare Qualität wie größere Modelle, zu einem Bruchteil der Kosten und ist dabei unglaublich schnell“, sagt Silverman. So können sich Entwickler auf die Entwicklung komplexer, mehrstufiger Kundenservice-Workflows konzentrieren, ohne sich Gedanken über unkontrollierte Kosten machen zu müssen.

„Wir haben festgestellt, dass einzelne Agentenläufe bei anderen LLM-Anbietern mehr als 500 $pro Lauf kosten. Dieselben Ausführungen mit Gemini (1.5 Flash-8B) kosten weniger als 50 $.“

– Adam Silverman, COO, Agency AI

Mockup eines AgentOps-Dashboards mit Analysen und Statistiken

KI-Agents

AgentOps erfasst Daten zu jeder Interaktion mit Kundenservicemitarbeitern, nicht nur zu LLM-Anrufen, und bietet so einen umfassenden Überblick über die Funktionsweise von Multi-Agent-Systemen. Diese detaillierten Informationen sind für Engineering- und Compliance-Teams unerlässlich und bieten wichtige Einblicke für die Fehlerbehebung, Optimierung und Audit-Trails.

Die Einbindung von Gemini-Modellen in AgentOps ist erstaunlich einfach und dauert mit LiteLLM oft nur wenige Minuten. Entwickler können schnell einen Überblick über ihre Gemini API-Aufrufe erhalten, Kosten in Echtzeit verfolgen und die Zuverlässigkeit ihrer Kundenservicemitarbeiter in der Produktion gewährleisten.

Zukunftspläne

AgentOps unterstützt Entwickler von Kundenservicemitarbeitern bei der Skalierung ihrer Projekte. Agency AI hilft Unternehmen dabei, die Komplexität beim Erstellen kostengünstiger, skalierbarer Kundenservicemitarbeiter zu bewältigen. So wird das Nutzenversprechen der Kombination von AgentOps mit der Gemini API weiter gestärkt. Wie Silverman betont, „bewegt es mehr preisbewusste Entwickler dazu, Agenten zu entwickeln“.

Für Entwickler, die Gemini in Betracht ziehen, hat Silverman einen klaren Rat: „Probieren Sie es aus, Sie werden beeindruckt sein.“