Toolkit AI Generatif yang Bertanggung Jawab
Alat dan panduan untuk mendesain, membuat, dan mengevaluasi model AI terbuka secara bertanggung jawab.
Desain aplikasi yang bertanggung jawab
Tentukan aturan untuk perilaku model, buat aplikasi yang aman dan bertanggung jawab, serta pertahankan komunikasi yang transparan dengan pengguna.
Penyelarasan keselamatan
Temukan teknik proses debug prompt dan panduan untuk penyesuaian dan RLHF guna menyelaraskan model AI dengan kebijakan keamanan.
Evaluasi model
Temukan panduan dan data untuk melakukan evaluasi model yang andal untuk keamanan, keadilan, dan faktualitas dengan LLM Comparator.
Pengaman
Deploy pengklasifikasi keselamatan, menggunakan solusi siap pakai atau buat sendiri dengan tutorial langkah demi langkah.
Mendesain pendekatan yang bertanggung jawab
Identifikasi secara proaktif potensi risiko aplikasi Anda dan tentukan pendekatan tingkat sistem untuk membuat aplikasi yang aman dan bertanggung jawab bagi pengguna.
Mulai
Menentukan kebijakan tingkat sistem
Tentukan jenis konten yang harus dan tidak boleh dihasilkan oleh aplikasi Anda.
Mendesain untuk keamanan
Tentukan pendekatan Anda secara keseluruhan untuk menerapkan teknik mitigasi risiko, dengan mempertimbangkan kompromi teknis dan bisnis.
Bersikaplah transparan
Sampaikan pendekatan Anda dengan artefak seperti kartu model.
Sistem AI yang aman
Pertimbangkan risiko keamanan khusus AI dan metode perbaikan yang disorot dalam Framework AI Aman (SAIF).
Menyelaraskan model
Sesuaikan model Anda dengan kebijakan keamanan spesifik menggunakan teknik perintah dan penyesuaian.
Mulai
Membuat perintah yang lebih aman dan andal
Gunakan kecanggihan LLM untuk membantu membuat template perintah yang lebih aman dengan library Model Alignment.
Menyesuaikan model untuk keamanan
Kontrol perilaku model dengan menyesuaikan model agar sesuai dengan kebijakan keamanan dan konten Anda.
Menyelidiki perintah model
Buat perintah yang aman dan bermanfaat melalui peningkatan berulang dengan Learning Interpretability Tool (LIT).
Mengevaluasi model Anda
Evaluasi risiko model terkait keamanan, keadilan, dan akurasi faktual menggunakan panduan dan alat kami.
Mulai
Pembanding LLM
Melakukan evaluasi berdampingan dengan LLM Comparator untuk menilai secara kualitatif perbedaan respons antara model, perintah yang berbeda untuk model yang sama, atau bahkan penyesuaian model yang berbeda
Pedoman evaluasi model
Pelajari praktik terbaik red teaming dan evaluasi model Anda berdasarkan tolok ukur akademis untuk menilai bahaya seputar keamanan, keadilan, dan fakta.
Melindungi dengan pengamanan
Filter input dan output aplikasi Anda, serta lindungi pengguna dari hasil yang tidak diinginkan.
Mulai
Teks SynthID
Alat untuk memberi watermark dan mendeteksi teks yang dihasilkan oleh model Anda.
ShieldGemma
Serangkaian pengklasifikasi keamanan konten, yang dibuat di Gemma 2, tersedia dalam tiga ukuran: 2B, 9B, 27B.
Pengklasifikasi yang tangkas
Membuat pengklasifikasi keselamatan untuk kebijakan spesifik Anda menggunakan parameter-efficient tuning (PET) dengan data pelatihan yang relatif sedikit
Memeriksa Keamanan AI
Pastikan kepatuhan keselamatan AI terhadap kebijakan konten Anda dengan API dan dasbor pemantauan.
Layanan moderasi teks
Deteksi daftar atribut keamanan, termasuk berbagai kategori dan topik yang berpotensi berbahaya yang mungkin dianggap sensitif dengan Google Cloud Natural Language API ini yang tersedia secara gratis di bawah batas penggunaan tertentu.
Perspective API
Identifikasi komentar "negatif" dengan Google Jigsaw API gratis ini untuk mengurangi toksisitas online dan memastikan dialog yang sehat.