Boîte à outils pour l'IA générative responsable
Des outils et des conseils pour concevoir, développer et évaluer de manière responsable des modèles d'IA ouverts.
Conception responsable des applications
Définissez des règles pour le comportement du modèle, créez une application sûre et responsable, et communiquez de manière transparente avec les utilisateurs.
Alignement sur la sécurité
Découvrez des techniques de débogage des invites et des conseils pour l'affinage et le RLHF pour aligner les modèles d'IA sur les règles de sécurité.
Évaluation du modèle
Trouvez des conseils et des données pour effectuer une évaluation robuste du modèle en termes de sécurité, d'équité et de véracité avec le comparateur de LLM.
Mesures de protection
Déployez des classificateurs de sécurité à l'aide de solutions prêtes à l'emploi ou créez-en des propres à l'aide de tutoriels détaillés.
Concevoir une approche responsable
Identifiez de manière proactive les risques potentiels de votre application et définissez une approche au niveau du système pour créer des applications sûres et responsables pour les utilisateurs.
Commencer
Définir des règles au niveau du système
Déterminez le type de contenu que votre application doit et ne doit pas générer.
Concevoir des outils sécurisés
Définissez votre approche globale pour mettre en œuvre des techniques d'atténuation des risques, en tenant compte des compromis techniques et commerciaux.
Soyez transparent
Communiquez votre approche à l'aide d'artefacts tels que des fiches de modèle.
Systèmes d'IA sécurisés
Examinez les risques de sécurité propres à l'IA et les méthodes de remédiation présentés dans le framework d'IA sécurisé (SAIF).
Aligner votre modèle
Alignez votre modèle sur vos règles de sécurité spécifiques à l'aide de techniques d'invite et de réglage.
Commencer
Créer des requêtes plus sûres et plus robustes
Exploitez la puissance des LLM pour créer des modèles d'invites plus sécurisés avec la bibliothèque d'alignement de modèles.
Régler des modèles pour la sécurité
Contrôlez son comportement en l'ajustant pour l'aligner sur vos règles relatives à la sécurité et au contenu.
Examiner les requêtes du modèle
Créez des requêtes utiles et sûres grâce à des améliorations itératives grâce à Learning Interpretability Tool (LIT).
Évaluer votre modèle
Évaluez les risques liés aux modèles en termes de sécurité, d'équité et de précision factuelle à l'aide de nos conseils et de nos outils.
Commencer
Comparateur LLM
Effectuez des évaluations côte à côte avec le comparateur LLM pour évaluer qualitativement les différences de réponses entre les modèles, les requêtes pour le même modèle ou même les réglages d'un modèle.
Consignes relatives à l'évaluation des modèles
Découvrez les bonnes pratiques de red teaming et comparez votre modèle à des benchmarks universitaires pour évaluer les dommages liés à la sécurité, à l'équité et à la véracité.
Protégez-le à l'aide de protections
Filtrez les entrées et les sorties de votre application, et protégez les utilisateurs contre les résultats indésirables.
Commencer
Texte SynthID
Outil permettant d'appliquer un filigrane et de détecter le texte généré par votre modèle.
ShieldGemma
Série de classificateurs de sécurité du contenu, basés sur Gemma 2, disponibles en trois tailles: 2B, 9B et 27B.
Classificateurs agiles
Créer des classificateurs de sécurité pour vos règles spécifiques à l'aide du réglage des paramètres avec optimisation (PET) avec relativement peu de données d'entraînement
Vérifie la sécurité de l'IA
Assurez-vous que l'IA respecte votre règlement relatif au contenu à l'aide d'API et de tableaux de bord de surveillance.
Service de modération du texte
Détectez une liste d'attributs de sécurité, y compris diverses catégories et sujets potentiellement dangereux pouvant être considérés comme sensibles, avec cette API Google Cloud Natural Language disponible gratuitement sous une certaine limite d'utilisation.
API Perspective
Identifiez les commentaires "toxiques" avec cette API Google Jigsaw sans frais pour atténuer la toxicité en ligne et garantir des échanges sains.