ShieldGemma to zestaw gotowych, dostosowanych do instrukcji modeli klasyfikatorów treści z otwartymi wagami, opracowanych na podstawie Gemma 2. Umożliwia on określenie, czy treści przesłane przez użytkownika, wygenerowane przez model lub mieszane naruszają zasady bezpieczeństwa treści. ShieldGemma została przeszkolona w zakresie wykrywania 4 rodzajów treści szkodliwych: treści o charakterze seksualnym, treści niebezpieczne, nękanie i mowa nienawiści. Jest dostępna w 3 wersjach rozmiaru (2B, 9B i 27B), co pozwala na zachowanie równowagi między szybkością, wydajnością i uniwersalnością, aby dopasować ją do potrzeb w ramach dowolnego wdrożenia. Więcej informacji o różnicach między tymi wariantami znajdziesz na karcie modelu.
Bezpieczeństwo modeli dzięki ShieldGemma
Uruchom Google Colab (Keras) | Uruchom Google Colab (Transformers) |
Modele ShieldGemma możesz używać w tych frameworkach:
- KerasNLP z punktami kontrolnymi modelu dostępnymi w Kaggle Zobacz ShieldGemma w Keras Colab, by rozpocząć.
- Hugging Face Transformers z dostępnymi punktami kontrolnymi modelu z Hugging Face Hub. Aby rozpocząć, zapoznaj się z ShieldGemma w Transformers Colab.