ShieldGemma
ShieldGemma to zestaw modeli dostrojonych instrukcji do oceny bezpieczeństwa promptów tekstowych i tekstową odpowiedź z uwzględnieniem zbioru zdefiniowanych zasad bezpieczeństwa. Za pomocą ten model jako część szerszej implementacji aplikacji generatywnej AI, która pomaga w ocenie i zapobieganiu naruszaniu zasad bezpieczeństwa w przypadku zastosowań generatywnej AI.
Modele ShieldGemma powstały na bazie Gemmy 2 w wersjach 2B, 9B i 27 mld rozmiarów parametrów. Model jest dostarczany z otwartymi wagami, aby można było go dostosować do konkretnego przypadku użycia. Ten zestaw modeli i przykładowy kod implementacji to funkcji Zestaw narzędzi do odpowiedzialnej generatywnej AI.
-
Ocena bezpieczeństwa treści
Ocena bezpieczeństwa danych wejściowych i wyjściowych na prompty pod kątem zestawu zdefiniowanych zasad bezpieczeństwa. -
Otwarte modele z możliwością dostrajania
Modele ShieldGemma mają otwarte wagi i można je dostosować do konkretnego przypadku użycia.