Sorumlu Üretken Yapay Zeka Aracı Kiti
Açık yapay zeka modellerini sorumlu bir şekilde tasarlama, oluşturma ve değerlendirmeye yönelik araçlar ve rehberlik.
Sorumlu uygulama tasarımı
Model davranışı için kurallar tanımlayın, güvenli ve sorumlu bir uygulama oluşturun ve kullanıcılarla şeffaf bir iletişim sürdürün.
Güvenlik uyumluluğu
Yapay zeka modellerini güvenlik politikalarıyla uyumlu hale getirmek için istemli hata ayıklama tekniklerini ve hassas ayarlama ile RLHF ile ilgili kılavuzları keşfedin.
Model değerlendirmesi
LLM Karşılaştırıcı ile güvenlik, adalet ve gerçeklik açısından güçlü bir model değerlendirmesi yapmak için rehberlik ve veri bulun.
Güvenlik önlemleri
Kullanıma hazır çözümleri kullanarak güvenlik sınıflandırıcıları dağıtın veya adım adım açıklamalı eğitici içeriklerle kendi sınıflandırıcınızı oluşturun.
Sorumluluk bilinciyle yaklaşın
Uygulamanızın potansiyel risklerini proaktif olarak belirleyin ve kullanıcılar için güvenli ve sorumlu uygulamalar oluşturmak üzere sistem düzeyinde bir yaklaşım tanımlayın.
Başlayın
Sistem düzeyinde politikalar tanımlama
Uygulamanızın ne tür içerikler oluşturması gerektiğini ve ne tür içerikler oluşturmaması gerektiğini belirleyin.
Güvenliği temel alan tasarım
Teknik ve ticari dengeleri göz önünde bulundurarak risk azaltma tekniklerini uygulamaya yönelik genel yaklaşımınızı tanımlayın.
Şeffaf olun
Model kartları gibi öğelerle yaklaşımınızı anlatın.
Güvenli yapay zeka sistemleri
Güvenli Yapay Zeka Çerçevesi'nde (SAIF) vurgulanan yapay zekaya özgü güvenlik risklerini ve çözüm yöntemlerini göz önünde bulundurun.
Modelinizi hizalama
İstem ve ayarlama tekniklerini kullanarak modelinizi belirli güvenlik politikalarınızla uyumlu hale getirin.
Başlayın
Daha güvenli ve daha güçlü istemler oluşturma
Model Eşleme kitaplığıyla daha güvenli istem şablonları oluşturmak için LLM'lerin gücünden yararlanın.
Modelleri güvenlik için ayarlama
Modelinizi güvenlik ve içerik politikalarınıza uygun olacak şekilde ayarlayarak model davranışını kontrol edin.
Model istemlerini inceleme
Öğrenme Yorumlanabilirliği Aracı (LIT) ile iteratif iyileştirmeler yaparak güvenli ve faydalı istemler oluşturun.
Modelinizi değerlendirme
Rehberlik ve araçlarımızı kullanarak güvenlik, adalet ve gerçeklik açısından model risklerini değerlendirin.
Başlayın
LLM Karşılaştırıcısı
Modeller arasındaki yanıtlardaki farklılıkları, aynı model için farklı istemleri veya hatta bir modelin farklı ayarlarını niteliksel olarak değerlendirmek için LLM Karşılaştırıcı ile yan yana değerlendirmeler yapın
Model değerlendirmesi yönergeleri
Güvenlik, adalet ve gerçeklik açısından zararları değerlendirmek için kırmızı ekip oluşturma ile ilgili en iyi uygulamalar hakkında bilgi edinin ve modelinizi akademik karşılaştırmalarla değerlendirin.
Korumalı önlemlerle koruma
Uygulamanızın giriş ve çıkışlarını filtreleyin ve kullanıcıları istenmeyen sonuçlardan koruyun.
Başlayın
SynthID metni
Modeliniz tarafından üretilen metne filigran eklemek ve metni algılamak için kullanılan bir araç.
ShieldGemma
Gemma 2'de oluşturulan ve 2B, 9B, 27B olmak üzere üç boyutta sunulan bir dizi içerik güvenliği sınıflandırıcı.
Çevik sınıflandırıcılar
Nispeten az eğitim verisi kullanarak parametre verimli ayarlama (PET) özelliğini kullanarak belirli politikalarınız için güvenlik sınıflandırıcıları oluşturun
Yapay Zeka Güvenliği'ni kontrol eder.
API'ler ve izleme kontrol panelleri ile yapay zeka güvenliğinin içerik politikalarınıza uygun olmasını sağlayın.
Metin moderasyon hizmeti
Belirli bir kullanım sınırının altında ücretsiz olarak sunulan bu Google Cloud Natural Language API ile hassas olarak kabul edilebilecek çeşitli zararlı olabilecek kategoriler ve konular da dahil olmak üzere güvenlik özelliklerinin listesini algılayın.
Perspective API
İnternetteki toksisiteyi azaltmak ve sağlıklı bir diyalog sağlamak için bu ücretsiz Google Jigsaw API ile "toksik" yorumları tespit edin.