ShieldGemma

ShieldGemma ist eine Reihe abgestimmter Modelle zur Bewertung der Sicherheit von Text-Prompts Eingabe- und Textausgabeantworten anhand einer Reihe definierter Sicherheitsrichtlinien. Sie können im Rahmen einer umfassenden Implementierung einer generativen KI-Anwendung, Generative AI-Anwendungen bewerten und davor schützen, gegen Sicherheitsrichtlinien zu verstoßen.

Die ShieldGemma-Modelle basieren auf Gemma 2 in 2B, 9B und 27 Mrd. Parametergrößen. Das Modell verfügt über offene Gewichtungen, mit denen Sie es optimieren können. für Ihren speziellen Anwendungsfall. Diese Gruppe von Modellen und Beispiel-Implementierungscode Komponente des Responsible Generative AI Toolkit

  • Bewerten Sie die Sicherheit von Ein- und Ausgabeantworten von Prompts anhand festgelegter Sicherheitsrichtlinien.
  • ShieldGemma-Modelle werden mit offenen Gewichten bereitgestellt und können auf Ihren speziellen Anwendungsfall abgestimmt werden.

Weitere Informationen

Die Modellkarte von ShieldGemma enthält unter anderem detaillierte Informationen zur Implementierung des Modells, zu Bewertungen, zur Nutzung und zu Einschränkungen des Modells.
Auf Kaggle finden Sie mehr Code, Colab-Notebooks, Informationen und Diskussionen zu ShieldGemma.
Führen Sie ein funktionierendes Beispiel für die Verwendung von ShieldGemma aus, um die Ein- und Ausgabe von Text-Prompts auszuwerten.