ShieldGemma

ShieldGemma to zestaw modeli dostrojonych instrukcji do oceny bezpieczeństwa promptów tekstowych i tekstową odpowiedź z uwzględnieniem zbioru zdefiniowanych zasad bezpieczeństwa. Za pomocą ten model jako część szerszej implementacji aplikacji generatywnej AI, która pomaga w ocenie i zapobieganiu naruszaniu zasad bezpieczeństwa w przypadku zastosowań generatywnej AI.

Modele ShieldGemma powstały na bazie Gemmy 2 w wersjach 2B, 9B i 27 mld rozmiarów parametrów. Model jest dostarczany z otwartymi wagami, aby można było go dostosować do konkretnego przypadku użycia. Ten zestaw modeli i przykładowy kod implementacji to funkcji Zestaw narzędzi do odpowiedzialnej generatywnej AI.

  • Ocena bezpieczeństwa danych wejściowych i wyjściowych na prompty pod kątem zestawu zdefiniowanych zasad bezpieczeństwa.
  • Modele ShieldGemma mają otwarte wagi i można je dostosować do konkretnego przypadku użycia.

Więcej informacji

Karta modelu ShieldGemma zawiera szczegółowe informacje m.in. o implementacji modelu, ocenach, wykorzystaniu i ograniczeniach modelu.
Zobacz więcej kodu, notatniki Colab, informacje i dyskusje na temat ShieldGemma w Kaggle.
Uruchom przykład użycia ShieldGemma do oceny danych wejściowych i wyjściowych promptów tekstowych.