Sorumlu Üretken Yapay Zeka Araç Seti
Açık yapay zeka modellerini sorumlu bir şekilde tasarlamak, geliştirmek ve değerlendirmek için araçlar ve kılavuzlar.
Sorumlu uygulama tasarımı
Model davranışı için kurallar tanımlayın, güvenli ve güvenilir bir uygulama oluşturun ve kullanıcılarla şeffaf iletişim kurun.
Güvenlik uyumluluğu
Yapay zeka modellerini güvenlik politikalarıyla uyumlu hale getirmek için istemli hata ayıklama tekniklerini ve hassas ayarlama ile RLHF ile ilgili kılavuzları keşfedin.
Model değerlendirmesi
LLM Karşılaştırıcı ile güvenlik, adalet ve gerçeklik açısından güçlü bir model değerlendirmesi yapmak için rehberlik ve veri bulun.
Güvenlik önlemleri
Kullanıma hazır çözümleri kullanarak güvenlik sınıflandırıcıları dağıtın veya adım adım açıklamalı eğitici içerikleri inceleyerek kendi sınıflandırıcınızı oluşturun.
Sorumlu bir yaklaşım tasarlayın
Uygulamanızın olası risklerini proaktif olarak belirleyin ve kullanıcılar için güvenli ve sorumlu uygulamalar oluşturmak üzere sistem düzeyinde bir yaklaşım tanımlayın.
Başlayın
Sistem düzeyinde politikalar tanımlama
Uygulamanızın oluşturması ve üretmemesi gereken içerik türlerini belirleyin.
Güvenliği temel alan tasarım
Teknik ve ticari dengeleri göz önünde bulundurarak risk azaltma tekniklerini uygulamaya yönelik genel yaklaşımınızı tanımlayın.
Şeffaf olun
Model kartları gibi eserlerle yaklaşımınızı yansıtın.
Güvenli yapay zeka sistemleri
Güvenli Yapay Zeka Çerçevesi'nde (SAIF) vurgulanan yapay zekaya özgü güvenlik risklerini ve düzeltme yöntemlerini göz önünde bulundurun.
Modelinizi hizalama
İstem ve ayarlama tekniklerini kullanarak modelinizi belirli güvenlik politikalarınızla uyumlu hale getirin.
Başlayın
Daha güvenli ve güçlü istemler üretin
Model Eşleme kitaplığıyla daha güvenli istem şablonları oluşturmak için LLM'lerin gücünden yararlanın.
Modelleri güvenlik için ayarlama
Modelinizi güvenlik ve içerik politikalarınızla uyumlu olacak şekilde ayarlayarak model davranışını kontrol edin.
Model istemlerini inceleme
Öğrenme Yorumlanabilirliği Aracı (LIT) ile iteratif iyileştirmeler yaparak güvenli ve faydalı istemler oluşturun.
Modelinizi değerlendirme
Rehberlik ve araçlarımızı kullanarak güvenlik, adalet ve gerçeklik açısından model risklerini değerlendirin.
Başlayın
LLM Karşılaştırıcısı
Modeller arasındaki yanıtlardaki farklılıkları, aynı model için farklı istemleri veya hatta bir modelin farklı ayarlarını niteliksel olarak değerlendirmek için LLM Karşılaştırıcı ile yan yana değerlendirmeler yapın
Model değerlendirmesi yönergeleri
Güvenlik, adalet ve gerçeklik açısından zararları değerlendirmek için kırmızı ekip oluşturma ile ilgili en iyi uygulamalar hakkında bilgi edinin ve modelinizi akademik karşılaştırmalarla değerlendirin.
Korumalı önlemlerle koruma
Uygulamanızın giriş ve çıkışlarını filtreleyin ve kullanıcıları istenmeyen sonuçlardan koruyun.
Başlayın
SynthID metni
Modeliniz tarafından üretilen metne filigran eklemek ve metni algılamak için kullanılan bir araç.
ShieldGemma
Gemma 2 tabanlı bir dizi içerik güvenliği sınıflandırıcısı üç farklı boyutta kullanıma sunulmuştur: 2B, 9B, 27B.
Çevik sınıflandırıcılar
Nispeten az eğitim verisi kullanarak parametre verimli ayarlama (PET) özelliğini kullanarak belirli politikalarınız için güvenlik sınıflandırıcıları oluşturun
Yapay zeka güvenliğini kontrol eder
API'ler ve izleme kontrol panelleri ile yapay zeka güvenliğinin içerik politikalarınıza uygun olmasını sağlayın.
Metin moderasyon hizmeti
Belirli bir kullanım sınırının altında ücretsiz olarak sunulan bu Google Cloud Natural Language API ile hassas olarak kabul edilebilecek çeşitli zararlı olabilecek kategoriler ve konular da dahil olmak üzere güvenlik özelliklerinin listesini algılayın.
Perspective API
İnternetteki toksisiteyi azaltmak ve sağlıklı bir diyalog sağlamak için bu ücretsiz Google Jigsaw API ile "toksik" yorumları tespit edin.