Toolkit AI Generatif yang Bertanggung Jawab
Alat dan panduan untuk mendesain, membuat, dan mengevaluasi model AI terbuka secara bertanggung jawab.
Desain aplikasi yang bertanggung jawab
Tentukan aturan untuk perilaku model, buat aplikasi yang aman dan bertanggung jawab, serta pertahankan komunikasi yang transparan dengan pengguna.
Penyelarasan keselamatan
Temukan teknik proses debug prompt dan panduan untuk penyesuaian dan RLHF guna menyelaraskan model AI dengan kebijakan keamanan.
Evaluasi model
Temukan panduan dan data untuk melakukan evaluasi model yang andal untuk keamanan, keadilan, dan faktualitas dengan LLM Comparator.
Pengaman
Deploy pengklasifikasi keamanan, menggunakan solusi siap pakai atau buat sendiri dengan tutorial langkah demi langkah.
Merancang pendekatan yang bertanggung jawab
Identifikasi secara proaktif potensi risiko aplikasi Anda dan tentukan pendekatan tingkat sistem untuk membuat aplikasi yang aman dan bertanggung jawab bagi pengguna.
Mulai
Menentukan kebijakan tingkat sistem
Tentukan jenis konten yang harus dan tidak boleh dihasilkan oleh aplikasi Anda.
Mendesain untuk keamanan
Tentukan pendekatan Anda secara keseluruhan untuk menerapkan teknik mitigasi risiko, dengan mempertimbangkan kompromi teknis dan bisnis.
Bersikaplah transparan
Sampaikan pendekatan Anda dengan artefak seperti kartu model.
Sistem AI yang aman
Pertimbangkan risiko keamanan khusus AI dan metode perbaikan yang disorot dalam Secure AI Framework (SAIF).
Menyelaraskan model
Selaraskan model Anda dengan kebijakan keamanan spesifik menggunakan teknik pembuatan perintah dan penyesuaian.
Mulai
Membuat prompt yang lebih aman dan andal
Gunakan kecanggihan LLM untuk membantu membuat template perintah yang lebih aman dengan library Model Alignment.
Menyesuaikan model untuk keamanan
Kontrol perilaku model dengan menyesuaikan model Anda agar selaras dengan kebijakan keamanan dan konten Anda.
Menyelidiki perintah model
Bangun perintah yang aman dan bermanfaat melalui peningkatan iteratif dengan Learning Interpretability Tool (LIT).
Mengevaluasi model Anda
Evaluasi risiko model terkait keamanan, keadilan, dan akurasi faktual menggunakan panduan dan alat kami.
Mulai
Pembanding LLM
Lakukan evaluasi berdampingan dengan LLM Comparator untuk menilai secara kualitatif perbedaan respons antarmodel, prompt berbeda untuk model yang sama, atau bahkan penyesuaian model yang berbeda
Pedoman evaluasi model
Pelajari praktik terbaik kerja sama tim merah dan evaluasi model Anda berdasarkan tolok ukur akademik untuk menilai bahaya seputar keamanan, keadilan, dan faktualitas.
Melindungi dengan pengamanan
Filter input dan output aplikasi Anda, serta lindungi pengguna dari hasil yang tidak diinginkan.
Mulai
Teks SynthID
Alat untuk menambahkan watermark dan mendeteksi teks yang dihasilkan oleh model Anda.
ShieldGemma
Serangkaian pengklasifikasi keamanan konten, yang dibuat berdasarkan Gemma 2, tersedia dalam tiga ukuran: 2B, 9B, 27B.
Pengklasifikasi yang tangkas
Buat pengklasifikasi keamanan untuk kebijakan spesifik Anda menggunakan parameter efficient tuning (PET) dengan data pelatihan yang relatif sedikit
Memeriksa Keamanan AI
Pastikan kepatuhan keamanan AI terhadap kebijakan konten Anda dengan API dan dasbor pemantauan.
Layanan moderasi teks
Deteksi daftar atribut keamanan, termasuk berbagai kategori dan topik yang berpotensi berbahaya yang mungkin dianggap sensitif dengan Google Cloud Natural Language API yang tersedia secara gratis di bawah batas penggunaan tertentu.
Perspective API
Identifikasi komentar "negatif" dengan Google Jigsaw API gratis ini untuk mengurangi toksisitas online dan memastikan dialog yang sehat.