Toolkit AI Generatif yang Bertanggung Jawab
Alat dan panduan untuk merancang, membangun, dan mengevaluasi model AI terbuka secara bertanggung jawab.
Desain aplikasi yang bertanggung jawab
Tentukan aturan untuk perilaku model, buat aplikasi yang aman dan akuntabel, serta jaga komunikasi yang transparan dengan pengguna.
Penyelarasan keamanan
Temukan teknik dan panduan proses debug perintah untuk fine-tuning dan RLHF untuk menyelaraskan model AI dengan kebijakan keamanan.
Evaluasi model
Temukan panduan dan data untuk melakukan evaluasi model yang andal terkait keamanan, keadilan, dan faktualitas dengan LLM Comparator.
Pengaman
Deploy pengklasifikasi keamanan, menggunakan solusi siap pakai atau buat sendiri dengan tutorial langkah demi langkah.
Merancang pendekatan yang bertanggung jawab
Identifikasi potensi risiko aplikasi Anda secara proaktif dan tentukan pendekatan tingkat sistem untuk membangun aplikasi yang aman dan bertanggung jawab bagi pengguna.
Mulai
Menentukan kebijakan tingkat sistem
Tentukan jenis konten yang boleh dan tidak boleh dihasilkan aplikasi Anda.
Mendesain untuk keamanan
Menentukan pendekatan keseluruhan Anda untuk menerapkan teknik mitigasi risiko, dengan mempertimbangkan kompromi teknis dan bisnis.
Bersikaplah transparan
Sampaikan pendekatan Anda dengan artefak seperti kartu model.
Sistem AI yang aman
Pertimbangkan risiko keamanan khusus AI dan metode perbaikan yang ditandai dalam Framework AI Aman (SAIF).
Menyelaraskan model
Selaraskan model Anda dengan kebijakan keamanan spesifik menggunakan teknik pembuatan perintah dan penyesuaian.
Mulai
Menyelidiki perintah model
Bangun perintah yang aman dan bermanfaat melalui peningkatan iteratif dengan Learning Interpretability Tool (LIT).
Menyesuaikan model untuk keamanan
Kontrol perilaku model dengan menyesuaikan model Anda agar selaras dengan kebijakan keamanan dan konten Anda.
Mengevaluasi model Anda
Evaluasi risiko model terkait keamanan, keadilan, dan akurasi faktual menggunakan panduan dan alat kami.
Mulai
Pembanding LLM
Lakukan evaluasi berdampingan dengan LLM Comparator untuk menilai secara kualitatif perbedaan respons antarmodel, prompt berbeda untuk model yang sama, atau bahkan penyesuaian model yang berbeda
Panduan evaluasi model
Pelajari praktik terbaik kerja sama tim merah dan evaluasi model Anda berdasarkan tolok ukur akademik untuk menilai bahaya seputar keamanan, keadilan, dan faktualitas.
Melindungi dengan pengamanan
Filter input dan output aplikasi Anda, serta lindungi pengguna dari hasil yang tidak diinginkan.
Mulai
ShieldGemma
Serangkaian pengklasifikasi keamanan konten, yang dibuat berdasarkan Gemma 2, tersedia dalam tiga ukuran: 2B, 9B, 27B.
Pengklasifikasi {i>Agile<i}
Buat pengklasifikasi keamanan untuk kebijakan spesifik Anda menggunakan parameter efficient tuning (PET) dengan data pelatihan yang relatif sedikit
Layanan moderasi teks
Deteksi daftar atribut keamanan, termasuk berbagai kategori dan topik yang berpotensi berbahaya yang mungkin dianggap sensitif dengan Google Cloud Natural Language API yang tersedia secara gratis di bawah batas penggunaan tertentu.
Perspective API
Identifikasi "negatif" komentar dengan Google Jigsaw API gratis ini untuk mengurangi toksisitas online dan memastikan dialog yang sehat.