Kit de herramientas para la IA generativa responsable
Herramientas y orientación para diseñar, compilar y evaluar modelos de IA abierta de manera responsable.
Diseño de aplicaciones responsables
Define reglas de comportamiento del modelo, crea una aplicación segura y responsable, y mantén una comunicación transparente con los usuarios.
Alineación de seguridad
Descubre técnicas de depuración de instrucciones y orientación para ajustar y RLHF para alinear modelos de IA con políticas de seguridad.
Evaluación del modelo
Encuentra orientación y datos para realizar una evaluación sólida de modelos en cuanto a la seguridad, la equidad y la facticidad con el comparador LLM.
Protecciones
Implementa clasificadores de seguridad con soluciones listas para usar o crea los tuyos con instructivos paso a paso.
Diseña un enfoque responsable
Identifica de forma proactiva los riesgos potenciales de tu aplicación y define un enfoque a nivel del sistema para compilar aplicaciones seguras y responsables para los usuarios.
Comenzar
Define políticas a nivel del sistema
Determina qué tipo de contenido debe generar tu aplicación y cuál no.
Diseño para la seguridad
Definir tu enfoque general para implementar técnicas de mitigación de riesgos, teniendo en cuenta las compensaciones técnicas y comerciales.
Sé transparente
Comunica tu enfoque con artefactos como tarjetas de modelos.
Sistemas de IA seguros
Considera los riesgos de seguridad y los métodos de corrección específicos de la IA que se destacan en el Secure AI Framework (SAIF).
Alinea tu modelo
Alinea tu modelo con tus políticas de seguridad específicas mediante técnicas de instrucciones y ajuste.
Comenzar
Investiga instrucciones de modelos
Crea instrucciones seguras y útiles mediante la mejora iterativa con la Herramienta de interpretabilidad de aprendizaje (LIT).
Ajusta modelos para la seguridad
Controla el comportamiento del modelo ajustándolo para que se alinee con tus políticas de seguridad y contenido.
Evalúa tu modelo
Evalúa los riesgos del modelo en cuanto a la seguridad, la equidad y la precisión fáctica con nuestros lineamientos y herramientas.
Comenzar
Comparador de LLM
Realiza evaluaciones en paralelo con el comparador LLM para evaluar cualitativamente las diferencias en las respuestas entre los modelos, diferentes instrucciones para el mismo modelo o incluso diferentes ajustes de un modelo.
Lineamientos de evaluación de modelos
Obtén información sobre las prácticas recomendadas de la formación de equipos de emergencia y evalúa tu modelo en relación con comparativas académicas para evaluar los daños relacionados con la seguridad, la equidad y la facticidad.
Protege con protecciones
Filtra las entradas y salidas de tu aplicación, y protege a los usuarios de resultados no deseados.
Comenzar
ShieldGemma
Una serie de clasificadores de seguridad de contenido, basados en Gemma 2, disponibles en tres tamaños: 2B, 9B y 27B.
Clasificadores ágiles
Crea clasificadores de seguridad para tus políticas específicas a través del ajuste eficiente de parámetros (PET) con relativamente pocos datos de entrenamiento.
Servicio de moderación de texto
Detecta una lista de atributos de seguridad, incluidas varias categorías y temas potencialmente dañinos que pueden considerarse sensibles con esta API de Google Cloud Natural Language disponible de forma gratuita por debajo de un límite de uso determinado.
API de Perspective
Identificar contenido “tóxico” comentarios con esta API gratuita de Google Jigsaw para mitigar la toxicidad en línea y garantizar un diálogo saludable.