این نسخه از جعبه ابزار فقط بر روی مدل های متن به متن انگلیسی تمرکز دارد. میتوانید از طریق پیوند مکانیزم بازخورد در پایین صفحه، بازخوردی برای مفیدتر کردن این جعبه ابزار ارائه دهید.
هنگام ساختن با Gemma، باید رویکردی جامع به مسئولیت داشته باشید و تمام چالشهای احتمالی را در سطوح برنامه و مدل در نظر بگیرید. این مجموعه ابزار، تکنیک های ریسک و کاهش را برای رسیدگی به ایمنی، حریم خصوصی، انصاف و مسئولیت پذیری پوشش می دهد.
برای اطلاعات بیشتر و راهنمایی بقیه این جعبه ابزار را بررسی کنید:
تاریخ آخرین بهروزرسانی 2024-07-18 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2024-07-18 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Responsible Generative AI Toolkit\n\n\u003cbr /\u003e\n\nThis toolkit provides resources and tools to apply best practices for\nresponsible use of open models, such as [Gemma](/gemma), including:\n\n- Guidance on setting safety policies, safety tuning, safety classifiers and model evaluation.\n- The [Learning Interpretability Tool](/responsible/docs/alignment#lit) for investigating and debugging Gemma's behavior in response to prompts.\n- The [LLM Comparator](/responsible/docs/evaluation#llm-comparator) for running and visualizing comparative evaluation results.\n- A methodology for [building robust safety classifiers](/responsible/docs/safeguards#agile-classifiers) with minimal examples.\n\nThis version of the toolkit focuses on English text-to-text models only. You\ncan provide feedback to make this toolkit more helpful through the feedback\nmechanism link at the bottom of the page.\n\nWhen building with Gemma, you should take a holistic approach to responsibility\nand consider all the possible challenges at the application and model levels.\nThis toolkit covers risk and mitigation techniques to address safety, privacy,\nfairness, and accountability.\n\nCheck out the rest of this toolkit for more information and guidance:\n\n- [Design a responsible approach](/responsible/docs/design)\n- [Align your models](/responsible/docs/alignment)\n- [Evaluate your models and system for safety](/responsible/docs/evaluation)\n- [Protect your system with safeguards](/responsible/docs/safeguards)"]]