Sorumlu Üretken Yapay Zeka Araç Seti
Açık yapay zeka modellerini sorumlu bir şekilde tasarlamak, geliştirmek ve değerlendirmek için araçlar ve kılavuzlar.
Sorumlu uygulama tasarımı
Model davranışı için kurallar tanımlayın, güvenli ve güvenilir bir uygulama oluşturun ve kullanıcılarla şeffaf bir iletişim sürdürün.
Güvenlik hizalaması
Yapay zeka modellerini güvenlik politikalarıyla uyumlu hale getirmek için istem hata ayıklama tekniklerini ve ince ayar yapma ve RLHF ile ilgili kılavuzu keşfedin.
Model değerlendirme
LLM Karşılaştırma Aracı'ndan yararlanarak güvenlik, adalet ve doğruluk açısından güvenilir bir model değerlendirmesi yapmanıza yardımcı olacak kılavuzlara ve verilere ulaşın.
Teminatlar
Kullanıma hazır çözümleri kullanarak güvenlik sınıflandırıcıları dağıtın veya adım adım açıklamalı eğiticilerle kendi çözümünüzü geliştirin.
Sorumlu bir yaklaşım tasarlayın
Uygulamanızın potansiyel risklerini proaktif olarak belirleyin ve kullanıcılar için güvenli ve sorumlu uygulamalar geliştirmek üzere sistem düzeyinde bir yaklaşım belirleyin.
Başlayın
Sistem düzeyinde politikalar tanımlayın
Uygulamanızın oluşturması ve üretmemesi gereken içerik türlerini belirleyin.
Güvenliği temel alan tasarım
Teknik ve ticari dengeleri göz önünde bulundurarak risk azaltma tekniklerini uygulamaya yönelik genel yaklaşımınızı tanımlayın.
Şeffaf olun
Model kartları gibi eserlerle yaklaşımınızı yansıtın.
Güvenli yapay zeka sistemleri
Güvenli Yapay Zeka Çerçevesi'nde (SAIF) vurgulanan yapay zekaya özgü güvenlik risklerini ve düzeltme yöntemlerini göz önünde bulundurun.
Modelinizi hizalama
İstem ve ayarlama tekniklerini kullanarak modelinizi özel güvenlik politikalarınızla uyumlu hale getirin.
Başlayın
Model istemlerini inceleme
Öğrenme Yorumlanabilirlik Aracı (LIT) ile yinelenen iyileştirmelerle güvenli ve faydalı istemler oluşturun.
Modelleri güvenlik için ayarlayın
Modelinizi güvenlik ve içerik politikalarınızla uyumlu olacak şekilde ayarlayarak model davranışını kontrol edin.
Modelinizi değerlendirme
Yönergelerimizi ve araçlarımızı kullanarak güvenlik, adalet ve olguların doğruluğuyla ilgili model risklerini değerlendirin.
Başlayın
LLM Karşılaştırıcısı
Modeller arasındaki yanıtlardaki farklılıkları, aynı model için farklı istemleri, hatta bir modelin farklı ince ayarlarını nitel olarak değerlendirmek için LLM Karşılaştırıcı ile yan yana değerlendirmeler yapın.
Model değerlendirme yönergeleri
Kırmızı ekiplerle ilgili en iyi uygulamalar hakkında bilgi edinin ve güvenlik, adalet ve doğrulukla ilgili zararları değerlendirmek için modelinizi akademik karşılaştırmalara göre değerlendirin.
Güvenlik önlemleriyle koruyun
Uygulamanızın giriş ve çıkışlarını filtreleyin ve kullanıcıları istenmeyen sonuçlardan koruyun.
Başlayın
ShieldGemma
Gemma 2 tabanlı bir dizi içerik güvenliği sınıflandırıcısı üç farklı boyutta kullanıma sunulmuştur: 2B, 9B, 27B.
Çevik sınıflandırıcılar
Nispeten az eğitim verisi olan parametre etkili ayar (PET) kullanarak belirli politikalarınız için güvenlik sınıflandırıcıları oluşturun.
Metin denetleme hizmeti
Belirli bir kullanım sınırının altında ücretsiz olarak sunulan bu Google Cloud Natural Language API ile zararlı olabilecek çeşitli kategoriler ve hassas kabul edilebilecek çeşitli konular dahil olmak üzere güvenlik özelliklerinin listesini tespit edin.
Perspective API'si
"Toksik" terimini tanımlama yorumları bu ücretsiz Google Jigsaw API ile yaparak internetteki kirliliği azaltabilir ve sağlıklı diyaloglar kurabilirsiniz.