ShieldGemma

ShieldGemma es un conjunto de modelos ajustados para instrucciones para evaluar la seguridad de las instrucciones de texto las respuestas de entrada y salida de texto con un conjunto de políticas de seguridad definidas. Puedes usar este modelo como parte de una implementación más amplia de una aplicación de IA generativa para ayudar evaluarás y evitarás que las aplicaciones de IA generativa incumplien las políticas de seguridad.

Los modelos de ShieldGemma se basan en Gemma 2 en 2B, 9B y 27,000 millones. El modelo cuenta con ponderaciones abiertas para que puedas ajustarlo para tu caso de uso específico. Este conjunto de modelos y código de implementación de ejemplo es un componente de la Kit de herramientas de IA generativa responsable.

  • Evalúa la seguridad de las respuestas de entrada y salida de instrucciones en comparación con un conjunto de políticas de seguridad definidas.
  • Los modelos de ShieldGemma se proporcionan con pesos abiertos y se pueden ajustar para tu caso de uso específico.

Más información

La tarjeta de modelo de ShieldGemma contiene información detallada sobre la implementación, las evaluaciones, el uso y las limitaciones del modelo, y mucho más.
Consulta más código, notebooks de Colab, información y debates sobre ShieldGemma en Kaggle.
Ejecuta un ejemplo funcional para usar ShieldGemma y evaluar la entrada y salida de instrucciones de texto.