Bu araç setinde, başarılı bir proje için
en iyi uygulamaları kullanabileceğiniz
Aşağıdakiler dahil olmak üzere, Gemma gibi açık modellerin sorumlu bir şekilde kullanımı:
Güvenlik politikaları, güvenlik ayarları ve güvenlik sınıflandırıcıları ayarlama rehberi
model değerlendirmesi.
sorunları araştırmak ve değerlendirmek için Learning Yorumlanabilirlik Aracı
istemlere yanıt olarak Gemma'nın davranışlarında hata ayıklama.
Karşılaştırmaları çalıştırmak ve görselleştirmek için LLM Karşılaştırıcı
sonuçları belirleyebilirsiniz.
Araç setinin bu sürümü yalnızca İngilizce metinden metne dönüştürme modellerine odaklanıyor. Siz
geri bildirim vererek bu araç setini daha faydalı hale getirmek için
geri bildirimde bulunabilir.
mekanizma bağlantısını tıklayın.
Gemma ile geliştirme yaparken, sorumluluk konusunda bütüncül bir yaklaşım benimsemelisiniz.
uygulama ve model düzeylerinde olası tüm zorlukları
göz önünde bulundurmalısınız.
Bu araç setinde güvenlik, gizlilik ve güvenlik gibi konuları ele almak için risk ve azaltma
ve hesap verilebilirlik konularını
netleştirmek sizin işinizdir.
Daha fazla bilgi ve yol gösterici bilgiler için bu araç setinin diğer bölümlerine de göz atabilirsiniz:
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2024-07-18 UTC."],[],[],null,["# Responsible Generative AI Toolkit\n\n\u003cbr /\u003e\n\nThis toolkit provides resources and tools to apply best practices for\nresponsible use of open models, such as [Gemma](/gemma), including:\n\n- Guidance on setting safety policies, safety tuning, safety classifiers and model evaluation.\n- The [Learning Interpretability Tool](/responsible/docs/alignment#lit) for investigating and debugging Gemma's behavior in response to prompts.\n- The [LLM Comparator](/responsible/docs/evaluation#llm-comparator) for running and visualizing comparative evaluation results.\n- A methodology for [building robust safety classifiers](/responsible/docs/safeguards#agile-classifiers) with minimal examples.\n\nThis version of the toolkit focuses on English text-to-text models only. You\ncan provide feedback to make this toolkit more helpful through the feedback\nmechanism link at the bottom of the page.\n\nWhen building with Gemma, you should take a holistic approach to responsibility\nand consider all the possible challenges at the application and model levels.\nThis toolkit covers risk and mitigation techniques to address safety, privacy,\nfairness, and accountability.\n\nCheck out the rest of this toolkit for more information and guidance:\n\n- [Design a responsible approach](/responsible/docs/design)\n- [Align your models](/responsible/docs/alignment)\n- [Evaluate your models and system for safety](/responsible/docs/evaluation)\n- [Protect your system with safeguards](/responsible/docs/safeguards)"]]