ShieldGemma

ShieldGemma to zestaw modeli dostosowanych do instrukcji służących do oceny bezpieczeństwa tekstu i obrazów na podstawie zdefiniowanych zasad bezpieczeństwa. Możesz użyć tego modelu w ramach większej implementacji aplikacji generatywnej AI, aby ocenić aplikacje generatywnej AI i zapobiec ich naruszeniu zasad bezpieczeństwa. Rodzina modeli ShieldGemma jest dostarczana z otwartymi wagami, aby umożliwić dostosowanie modelu do konkretnego przypadku użycia.

ShieldGemma 2 to model z 4 mld parametrów stworzony do etykietowania obrazów pod kątem bezpieczeństwa.

ShieldGemma 1 jest oparta na Gemma 2 w rozmiarach 2B, 9B i 27B.

  • Ocena bezpieczeństwa danych wejściowych i wyjściowych na prompty pod kątem zestawu zdefiniowanych zasad bezpieczeństwa.
  • Modele ShieldGemma mają otwarte wagi i można je dostosować do konkretnego przypadku użycia.

ShieldGemma 2

Karta modelu ShieldGemma 2 zawiera szczegółowe informacje o wdrożeniu modelu, jego ocenie, zastosowaniu i ograniczeniach.
Zobacz więcej kodu, notatniki Colab, informacje i dyskusje na temat ShieldGemma w Kaggle.
Uruchom przykładowy przykładowy sposób korzystania z ShieldGemma do oceny obrazów.

ShieldGemma 1

Karta modelu ShieldGemma zawiera szczegółowe informacje m.in. o implementacji modelu, ocenach, wykorzystaniu i ograniczeniach modelu.
Zobacz więcej kodu, notatniki Colab, informacje i dyskusje na temat ShieldGemma w Kaggle.
Uruchom przykładowy kod ShieldGemma służący do oceny danych wejściowych i wyjściowych promptu tekstowego.