ShieldGemma
ShieldGemma ist eine Reihe abgestimmter Modelle zur Bewertung der Sicherheit von Text-Prompts Eingabe- und Textausgabeantworten anhand einer Reihe definierter Sicherheitsrichtlinien. Sie können im Rahmen einer umfassenden Implementierung einer generativen KI-Anwendung, Generative AI-Anwendungen bewerten und davor schützen, gegen Sicherheitsrichtlinien zu verstoßen.
Die ShieldGemma-Modelle basieren auf Gemma 2 in 2B, 9B und 27 Mrd. Parametergrößen. Das Modell verfügt über offene Gewichtungen, mit denen Sie es optimieren können. für Ihren speziellen Anwendungsfall. Diese Gruppe von Modellen und Beispiel-Implementierungscode Komponente des Responsible Generative AI Toolkit
-
Bewertung der Sicherheit von Inhalten
Bewerten Sie die Sicherheit von Ein- und Ausgabeantworten von Prompts anhand festgelegter Sicherheitsrichtlinien. -
Abstimmbare, offene Modelle
ShieldGemma-Modelle werden mit offenen Gewichten bereitgestellt und können auf Ihren speziellen Anwendungsfall abgestimmt werden.