ShieldGemma

ShieldGemma to zestaw gotowych, dostosowanych do instrukcji modeli klasyfikatorów treści z otwartymi wagami, opracowanych na podstawie Gemma 2. Umożliwia on określenie, czy treści przesłane przez użytkownika, wygenerowane przez model lub mieszane naruszają zasady bezpieczeństwa treści. ShieldGemma została przeszkolona w zakresie wykrywania 4 rodzajów treści szkodliwych: treści o charakterze seksualnym, treści niebezpieczne, nękanie i mowa nienawiści. Jest dostępna w 3 wersjach rozmiaru (2B, 9B i 27B), co pozwala na zachowanie równowagi między szybkością, wydajnością i uniwersalnością, aby dopasować ją do potrzeb w ramach dowolnego wdrożenia. Więcej informacji o różnicach między tymi wariantami znajdziesz na karcie modelu.

Bezpieczeństwo modeli dzięki ShieldGemma

Uruchom Google Colab (Keras) Uruchom Google Colab (Transformers)

Modele ShieldGemma możesz używać w tych frameworkach: