Kit de ferramentas de IA generativa responsável

Este kit de ferramentas oferece recursos para aplicar as práticas recomendadas de uso responsável de modelos abertos, como os modelos do Gemma, incluindo:

  • Orientação sobre a definição de políticas de segurança, ajuste de segurança, classificadores de segurança e avaliação de modelos.
  • A ferramenta de aprendizado de interpretabilidade (LIT, na sigla em inglês) para investigar o comportamento da Gemma e resolver possíveis problemas.
  • Uma metodologia para criar classificadores de segurança robustos com exemplos mínimos.

Esta versão do kit de ferramentas se concentra apenas em modelos de texto para texto em inglês. Você pode enviar feedback para tornar este kit de ferramentas mais útil por meio do link do mecanismo de feedback na parte de baixo da página.

Ao criar com a Gemma, é preciso adotar uma abordagem holística de responsabilidade e considerar todos os possíveis desafios nos níveis do aplicativo e do modelo. Este kit de ferramentas abrange técnicas de risco e mitigação para abordar segurança, privacidade, imparcialidade e responsabilidade.

Diagrama funcional das práticas de IA responsável

Confira o restante deste kit de ferramentas para mais informações e orientações:

Autores e colaboradores

Este kit de ferramentas se baseia em pesquisas e ferramentas de várias equipes do Google, incluindo estes autores e colaboradores:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum