ShieldGemma

ShieldGemma adalah serangkaian model pengklasifikasi konten bobot terbuka, yang disesuaikan dengan petunjuk, dan siap pakai, yang dibuat di Gemma 2, yang dapat menentukan apakah konten yang disediakan pengguna, konten buatan model, atau konten campuran melanggar kebijakan keamanan konten. ShieldGemma dilatih untuk mengidentifikasi empat bahaya—konten seksual, konten berbahaya, pelecehan, dan kebencian ucapan — dan hadir dalam tiga varian ukuran—2B, 9B, dan 27B yang memungkinkan Anda menyeimbangkan kecepatan, performa, dan generalisasi agar sesuai dengan kebutuhan Anda di seluruh deployment. Lihat kartu model untuk mengetahui lebih lanjut perbedaan antara varian ini.

Melindungi model Anda dengan ShieldGemma

Mulai Google Colab (Keras) Memulai Google Colab (Transformer)

Anda dapat menggunakan model ShieldGemma dalam framework berikut.