ShieldGemma adalah serangkaian model pengklasifikasi konten bobot terbuka, yang disesuaikan dengan petunjuk, dan siap pakai, yang dibuat di Gemma 2, yang dapat menentukan apakah konten yang disediakan pengguna, konten buatan model, atau konten campuran melanggar kebijakan keamanan konten. ShieldGemma dilatih untuk mengidentifikasi empat bahaya—konten seksual, konten berbahaya, pelecehan, dan kebencian ucapan — dan hadir dalam tiga varian ukuran—2B, 9B, dan 27B yang memungkinkan Anda menyeimbangkan kecepatan, performa, dan generalisasi agar sesuai dengan kebutuhan Anda di seluruh deployment. Lihat kartu model untuk mengetahui lebih lanjut perbedaan antara varian ini.
Melindungi model Anda dengan ShieldGemma
Mulai Google Colab (Keras) | Memulai Google Colab (Transformer) |
Anda dapat menggunakan model ShieldGemma dalam framework berikut.
- KerasNLP, dengan titik pemeriksaan model yang tersedia dari Kaggle. Lihat ShieldGemma di Keras Colab untuk memulai.
- Hugging Face Transformers, dengan checkpoint model yang tersedia dari Hugging Face Hub. Lihat ShieldGemma di Transformers Colab untuk memulai.