Kit de herramientas para la IA generativa responsable
Herramientas y orientación para diseñar, compilar y evaluar modelos de IA abierta de forma responsable
Diseño de aplicaciones responsables
Define reglas para el comportamiento del modelo, crea una aplicación segura y responsable, y mantén una comunicación transparente con los usuarios.
Alineación de seguridad
Descubre técnicas de depuración inmediata y orientación para el ajuste fino y el RLHF para alinear los modelos de IA con las políticas de seguridad.
Evaluación del modelo
Encuentra orientación y datos para realizar una evaluación sólida del modelo en cuanto a seguridad, equidad y veracidad con el comparador de LLM.
Protecciones
Implementa clasificadores de seguridad con soluciones listas para usar o crea los tuyos propios con instructivos paso a paso.
Diseña un enfoque responsable
Identifica de forma proactiva los riesgos potenciales de tu aplicación y define un enfoque a nivel del sistema para compilar aplicaciones seguras y responsables para los usuarios.
Comenzar
Define políticas a nivel del sistema
Determina qué tipo de contenido debe generar tu aplicación y cuál no.
Diseño para la seguridad
Define tu enfoque general para implementar técnicas de mitigación de riesgos, teniendo en cuenta las compensaciones técnicas y comerciales.
Sé transparente
Comunica tu enfoque con artefactos como tarjetas de modelo.
Sistemas de IA seguros
Considera los riesgos de seguridad y los métodos de corrección específicos de la IA que se destacan en el Secure AI Framework (SAIF).
Alinea tu modelo
Alinea tu modelo con tus políticas de seguridad específicas mediante técnicas de indicaciones y ajustes.
Comenzar
Crea indicaciones más seguras y sólidas
Usa el poder de los LLM para crear plantillas de instrucciones más seguras con la biblioteca de alineación de modelos.
Ajusta modelos para la seguridad
Controla el comportamiento del modelo ajustándolo para que se alinee con tus políticas de seguridad y contenido.
Investiga instrucciones de modelos
Crea indicaciones seguras y útiles mediante mejoras iterativas con la herramienta de interpretabilidad del aprendizaje (LIT).
Evalúa tu modelo
Evalúa los riesgos del modelo en cuanto a seguridad, equidad y exactitud fáctica con nuestra orientación y herramientas.
Comenzar
Comparador de LLM
Realiza evaluaciones en paralelo con el comparador de LLM para evaluar de forma cualitativa las diferencias en las respuestas entre modelos, las diferentes instrucciones para el mismo modelo o incluso los diferentes ajustes de un modelo.
Lineamientos para la evaluación de modelos
Obtén información sobre las prácticas recomendadas de los equipos de simulación de ataque y evalúa tu modelo en función de comparativas académicas para evaluar los daños relacionados con la seguridad, la equidad y la veracidad.
Protege con protecciones
Filtra las entradas y salidas de tu aplicación, y protege a los usuarios de resultados no deseados.
Comenzar
Texto de SynthID
Es una herramienta para agregar marcas de agua y detectar el texto que genera tu modelo.
ShieldGemma
Una serie de clasificadores de seguridad del contenido, creados en Gemma 2, disponibles en tres tamaños: 2B, 9B y 27B.
Clasificadores ágiles
Crea clasificadores de seguridad para tus políticas específicas con el ajuste eficiente de parámetros (PET) con relativamente pocos datos de entrenamiento
Verifica la seguridad de la IA
Garantiza el cumplimiento de la seguridad de la IA en relación con tus políticas de contenido con APIs y paneles de supervisión.
Servicio de moderación de texto
Detecta una lista de atributos de seguridad, incluidas varias categorías y temas potencialmente dañinos que pueden considerarse sensibles con esta API de Natural Language de Google Cloud disponible de forma gratuita por debajo de un límite de uso determinado.
API de Perspective
Identifica los comentarios "tóxicos" con esta API gratuita de Google Jigsaw para mitigar la toxicidad en línea y garantizar un diálogo saludable.