ShieldGemma

ShieldGemma ist eine Reihe von anhand von Anleitungen optimierten Modellen, mit denen die Sicherheit von Text und Bildern anhand einer Reihe von definierten Sicherheitsrichtlinien bewertet wird. Sie können dieses Modell als Teil einer größeren Implementierung einer generativen KI-Anwendung verwenden, um generative KI-Anwendungen zu bewerten und zu verhindern, dass sie gegen Sicherheitsrichtlinien verstoßen. Die ShieldGemma-Modellfamilie ist mit offenen Gewichten ausgestattet, damit Sie sie für Ihren spezifischen Anwendungsfall optimieren können.

ShieldGemma 2 ist ein Modell mit 4 Milliarden Parametern, das Bilder aus Sicherheitsgründen kennzeichnet.

ShieldGemma 1 basiert auf Gemma 2 mit 2 Billiarden, 9 Billiarden und 27 Billiarden Parametern.

  • Bewerten Sie die Sicherheit von Ein- und Ausgabeantworten von Prompts anhand festgelegter Sicherheitsrichtlinien.
  • ShieldGemma-Modelle werden mit offenen Gewichten bereitgestellt und können auf Ihren speziellen Anwendungsfall abgestimmt werden.

ShieldGemma 2

Die Modellkarte von ShieldGemma 2 enthält unter anderem ausführliche Informationen zur Modellimplementierung, zu Bewertungen, zur Modellnutzung und zu Einschränkungen.
Auf Kaggle finden Sie mehr Code, Colab-Notebooks, Informationen und Diskussionen zu ShieldGemma.
Ein Beispiel für die Verwendung von ShieldGemma zum Bewerten von Bildern ausführen

ShieldGemma 1

Die Modellkarte von ShieldGemma enthält unter anderem detaillierte Informationen zur Implementierung des Modells, zu Bewertungen, zur Nutzung und zu Einschränkungen des Modells.
Auf Kaggle finden Sie mehr Code, Colab-Notebooks, Informationen und Diskussionen zu ShieldGemma.
Führen Sie ein Beispiel aus, um zu sehen, wie Sie mit ShieldGemma Textprompts bewerten können.