Este kit de ferramentas oferece recursos e ferramentas para aplicar as práticas recomendadas
uso responsável de modelos abertos, como o Gemma, incluindo:
Orientação sobre a definição de políticas de segurança, ajustes de segurança e classificadores de segurança
e avaliação de modelos.
Esta versão do kit de ferramentas concentra-se apenas em modelos de texto para texto em inglês. Você
podem dar feedback para tornar este kit de ferramentas mais útil
mecanismo na parte inferior da página.
Ao desenvolver com o Gemma, você deve ter uma abordagem holística de responsabilidade
e considerar todos os desafios possíveis nos níveis do aplicativo e do modelo.
Esse kit de ferramentas abrange técnicas de risco e mitigação para lidar com questões de segurança, privacidade,
imparcialidade e responsabilidade.
Confira o restante deste kit de ferramentas para mais informações e orientações:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-07-18 UTC."],[],[],null,["# Responsible Generative AI Toolkit\n\n\u003cbr /\u003e\n\nThis toolkit provides resources and tools to apply best practices for\nresponsible use of open models, such as [Gemma](/gemma), including:\n\n- Guidance on setting safety policies, safety tuning, safety classifiers and model evaluation.\n- The [Learning Interpretability Tool](/responsible/docs/alignment#lit) for investigating and debugging Gemma's behavior in response to prompts.\n- The [LLM Comparator](/responsible/docs/evaluation#llm-comparator) for running and visualizing comparative evaluation results.\n- A methodology for [building robust safety classifiers](/responsible/docs/safeguards#agile-classifiers) with minimal examples.\n\nThis version of the toolkit focuses on English text-to-text models only. You\ncan provide feedback to make this toolkit more helpful through the feedback\nmechanism link at the bottom of the page.\n\nWhen building with Gemma, you should take a holistic approach to responsibility\nand consider all the possible challenges at the application and model levels.\nThis toolkit covers risk and mitigation techniques to address safety, privacy,\nfairness, and accountability.\n\nCheck out the rest of this toolkit for more information and guidance:\n\n- [Design a responsible approach](/responsible/docs/design)\n- [Align your models](/responsible/docs/alignment)\n- [Evaluate your models and system for safety](/responsible/docs/evaluation)\n- [Protect your system with safeguards](/responsible/docs/safeguards)"]]