Kit de herramientas para la IA generativa responsable

Este kit de herramientas proporciona recursos para aplicar las prácticas recomendadas de uso responsable de modelos abiertos como los modelos de Gemma, incluidos los siguientes:

  • Orientación para configurar políticas de seguridad, ajustes de seguridad, clasificadores de seguridad y evaluación de modelos.
  • La Herramienta de interpretabilidad de aprendizaje (LIT) para investigar el comportamiento de Gemma y abordar posibles problemas
  • Metodología para compilar clasificadores de seguridad sólidos con ejemplos mínimos.

Esta versión del kit de herramientas se centra únicamente en los modelos de texto a texto en inglés. Puedes proporcionar comentarios para que este kit de herramientas sea más útil a través del vínculo del mecanismo de comentarios que se encuentra en la parte inferior de la página.

Cuando compilas con Gemma, debes adoptar un enfoque integral respecto de la responsabilidad y considerar todos los desafíos posibles a nivel de la aplicación y del modelo. En este kit de herramientas, se abordan las técnicas de mitigación y riesgo para abordar la seguridad, la privacidad, la equidad y la responsabilidad.

Diagrama funcional de las prácticas de la IA responsable

Consulta el resto de este kit de herramientas para obtener más información y orientación:

Autores y colaboradores

Este kit de herramientas se basa en investigaciones y herramientas de varios equipos de Google, incluidos estos autores y colaboradores:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thaiayn, Mackenzie Thomas, Hayden Schaffer, MarietinS Graceer, Madeinella Park, Seliem