Sorumlu Üretken Yapay Zeka Araç Seti
Açık yapay zeka modellerini sorumlu bir şekilde tasarlama, oluşturma ve değerlendirmeye yönelik araçlar ve rehberlik.
Sorumlu uygulama tasarımı
Model davranışı için kurallar tanımlayın, güvenli ve güvenilir bir uygulama oluşturun ve kullanıcılarla şeffaf bir iletişim sürdürün.
Güvenlik uyumluluğu
Yapay zeka modellerini güvenlik politikalarıyla uyumlu hale getirmek için istem hata ayıklama tekniklerini ve ince ayar yapma ve RLHF ile ilgili kılavuzu keşfedin.
Model değerlendirme
LLM Karşılaştırıcısı ile güvenlik, adalet ve doğruluk açısından güvenilir bir model değerlendirmesi yapmanıza yardımcı olacak kılavuzlara ve verilere ulaşın.
Teminatlar
Kullanıma hazır çözümleri kullanarak güvenlik sınıflandırıcıları dağıtın veya adım adım açıklamalı eğiticilerle kendi çözümünüzü geliştirin.
Sorumlu bir yaklaşım tasarlayın
Uygulamanızın potansiyel risklerini proaktif olarak belirleyin ve kullanıcılar için güvenli ve sorumlu uygulamalar geliştirmek üzere sistem düzeyinde bir yaklaşım belirleyin.
Başlayın
Sistem düzeyinde politikalar tanımlayın
Uygulamanızın oluşturması ve üretmemesi gereken içerik türlerini belirleyin.
Güvenliği temel alan tasarım
Teknik ve ticari dengeleri göz önünde bulundurarak risk azaltma tekniklerini uygulamaya yönelik genel yaklaşımınızı tanımlayın.
Şeffaf olun
Model kartları gibi öğelerle yaklaşımınızı anlatın.
Güvenli yapay zeka sistemleri
Güvenli Yapay Zeka Çerçevesi'nde (SAIF) vurgulanan yapay zekaya özgü güvenlik risklerini ve çözüm yöntemlerini göz önünde bulundurun.
Modelinizi hizalama
İstem ve ayarlama tekniklerini kullanarak modelinizi belirli güvenlik politikalarınızla uyumlu hale getirin.
Başlayın
Daha güvenli ve daha güçlü istemler oluşturma
Model Eşleme kitaplığıyla daha güvenli istem şablonları oluşturmak için LLM'lerin gücünden yararlanın.
Modelleri güvenlik için ayarlama
Modelinizi güvenlik ve içerik politikalarınızla uyumlu olacak şekilde ayarlayarak model davranışını kontrol edin.
Model istemlerini inceleme
Learning Interpretability Tool (LIT) ile iteratif iyileştirmeler yaparak güvenli ve faydalı istemler oluşturun.
Modelinizi değerlendirme
Yönergelerimizi ve araçlarımızı kullanarak güvenlik, adalet ve olguların doğruluğuyla ilgili model risklerini değerlendirin.
Başlayın
LLM Karşılaştırıcısı
Modeller arasındaki yanıtlardaki farklılıkları, aynı model için farklı istemleri, hatta bir modelin farklı ince ayarlarını nitel olarak değerlendirmek için LLM Karşılaştırma Aracı ile yan yana değerlendirmeler yapın.
Model değerlendirme yönergeleri
Kırmızı ekiplerle ilgili en iyi uygulamalar hakkında bilgi edinin ve güvenlik, adalet ve doğrulukla ilgili zararları değerlendirmek için modelinizi akademik karşılaştırmalara göre değerlendirin.
Güvenlik önlemleriyle koruyun
Uygulamanızın giriş ve çıkışlarını filtreleyin ve kullanıcıları istenmeyen sonuçlardan koruyun.
Başlayın
SynthID metni
Modeliniz tarafından oluşturulan metinlerin filigran eklenerek tanımlanmasına yarayan bir araç.
ShieldGemma
Gemma 2 tabanlı bir dizi içerik güvenliği sınıflandırıcısı üç farklı boyutta kullanıma sunulmuştur: 2B, 9B, 27B.
Çevik sınıflandırıcılar
Nispeten az eğitim verisi kullanarak parametre verimli ayarlama (PET) özelliğini kullanarak belirli politikalarınız için güvenlik sınıflandırıcıları oluşturun
Yapay Zeka Güvenliği'ni kontrol eder.
API'ler ve izleme kontrol panelleri ile yapay zeka güvenliğinin içerik politikalarınıza uygun olmasını sağlayın.
Metin denetleme hizmeti
Belirli bir kullanım sınırının altında ücretsiz olarak sunulan bu Google Cloud Natural Language API ile zararlı olabilecek çeşitli kategoriler ve hassas kabul edilebilecek çeşitli konular dahil olmak üzere güvenlik özelliklerinin listesini tespit edin.
Perspective API'si
İnternetteki toksisiteyi azaltmak ve sağlıklı bir diyalog sağlamak için bu ücretsiz Google Jigsaw API ile "toksik" yorumları tespit edin.