Bộ công cụ này cung cấp tài nguyên và công cụ để áp dụng các phương pháp hay nhất cho
sử dụng các mô hình mở có trách nhiệm, chẳng hạn như Gemma, bao gồm:
Hướng dẫn thiết lập chính sách an toàn, tính năng điều chỉnh mức độ an toàn và thuật toán phân loại độ an toàn
và đánh giá mô hình.
Phiên bản này của bộ công cụ chỉ tập trung vào các mô hình chuyển văn bản từ tiếng Anh sang văn bản. Bạn
có thể đưa ra ý kiến phản hồi để giúp bộ công cụ này trở nên hữu ích hơn thông qua ý kiến phản hồi
đường liên kết cơ chế ở cuối trang.
Khi xây dựng ứng dụng bằng Gemma, bạn nên tiếp cận một cách toàn diện về trách nhiệm
đồng thời xem xét mọi thách thức có thể xảy ra ở cấp độ ứng dụng và mô hình.
Bộ công cụ này bao gồm các kỹ thuật rủi ro và giảm thiểu để giải quyết vấn đề an toàn, quyền riêng tư,
sự công bằng và trách nhiệm giải trình.
Hãy tìm hiểu phần còn lại của bộ công cụ này để biết thêm thông tin và hướng dẫn:
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2024-07-18 UTC."],[],[],null,["# Responsible Generative AI Toolkit\n\n\u003cbr /\u003e\n\nThis toolkit provides resources and tools to apply best practices for\nresponsible use of open models, such as [Gemma](/gemma), including:\n\n- Guidance on setting safety policies, safety tuning, safety classifiers and model evaluation.\n- The [Learning Interpretability Tool](/responsible/docs/alignment#lit) for investigating and debugging Gemma's behavior in response to prompts.\n- The [LLM Comparator](/responsible/docs/evaluation#llm-comparator) for running and visualizing comparative evaluation results.\n- A methodology for [building robust safety classifiers](/responsible/docs/safeguards#agile-classifiers) with minimal examples.\n\nThis version of the toolkit focuses on English text-to-text models only. You\ncan provide feedback to make this toolkit more helpful through the feedback\nmechanism link at the bottom of the page.\n\nWhen building with Gemma, you should take a holistic approach to responsibility\nand consider all the possible challenges at the application and model levels.\nThis toolkit covers risk and mitigation techniques to address safety, privacy,\nfairness, and accountability.\n\nCheck out the rest of this toolkit for more information and guidance:\n\n- [Design a responsible approach](/responsible/docs/design)\n- [Align your models](/responsible/docs/alignment)\n- [Evaluate your models and system for safety](/responsible/docs/evaluation)\n- [Protect your system with safeguards](/responsible/docs/safeguards)"]]