Boîte à outils pour l'IA générative responsable
Des outils et des conseils pour concevoir, développer et évaluer de manière responsable des modèles d'IA ouverts.
Conception responsable d'applications
Définissez des règles pour le comportement du modèle, créez une application sûre et responsable, et communiquez de manière transparente avec les utilisateurs.
Alignement sur la sécurité
Découvrez des techniques de débogage rapide et des conseils pour le réglage fin et l'apprentissage par renforcement qui utilise le feedback humain afin d'aligner les modèles d'IA sur les règles de sécurité.
Évaluation du modèle
Trouvez des conseils et des données pour effectuer une évaluation robuste du modèle en termes de sécurité, d'équité et de véracité avec le comparateur de LLM.
Mesures de protection
Déployez des classificateurs de sécurité à l'aide de solutions prêtes à l'emploi ou créez-en des propres à l'aide de tutoriels détaillés.
Concevoir une approche responsable
Identifiez de manière proactive les risques potentiels de votre application et définissez une approche au niveau du système pour créer des applications sûres et responsables pour les utilisateurs.
Commencer
Définir des règles au niveau du système
Déterminez le type de contenu que votre application doit générer et celui qu'elle ne doit pas générer.
Concevoir des outils sécurisés
Définissez votre approche globale pour mettre en œuvre des techniques d'atténuation des risques, en tenant compte des compromis techniques et commerciaux.
Soyez transparent
Communiquez votre approche à l'aide d'artefacts tels que des fiches de modèle.
Systèmes d'IA sécurisés
Tenez compte des risques de sécurité spécifiques à l'IA et des méthodes de correction mises en avant dans le framework d'IA sécurisé (SAIF).
Aligner votre modèle
Alignez votre modèle sur vos règles de sécurité spécifiques à l'aide de techniques d'invite et de réglage.
Commencer
Créer des requêtes plus sûres et plus robustes
Utilisez la puissance des LLM pour créer des modèles de requêtes plus sûrs avec la bibliothèque d'alignement des modèles.
Régler des modèles pour la sécurité
Contrôlez le comportement du modèle en l'adaptant à vos règles de sécurité et de contenu.
Examiner les requêtes du modèle
Créez des invites sûres et utiles grâce à des améliorations itératives avec l'outil Learning Interpretability Tool (LIT).
Évaluer votre modèle
Évaluez les risques liés aux modèles en termes de sécurité, d'équité et de précision factuelle à l'aide de nos conseils et de nos outils.
Commencer
Comparateur LLM
Effectuez des évaluations côte à côte avec le comparateur de LLM pour évaluer qualitativement les différences de réponses entre les modèles, les différentes invites pour un même modèle ou même les différents réglages d'un modèle.
Consignes d'évaluation des modèles
Découvrez les bonnes pratiques de red teaming et comparez votre modèle à des benchmarks universitaires pour évaluer les dommages liés à la sécurité, à l'équité et à la véracité.
Protégez-vous avec des mesures de protection
Filtrez les entrées et les sorties de votre application, et protégez les utilisateurs contre les résultats indésirables.
Commencer
Texte SynthID
Outil permettant d'ajouter un filigrane et de détecter le texte généré par votre modèle.
ShieldGemma
Série de classificateurs de sécurité du contenu, basés sur Gemma 2, disponibles en trois tailles: 2 milliards, 9 milliards et 27 milliards.
Classificateurs agiles
Créer des classificateurs de sécurité pour vos règles spécifiques à l'aide du réglage des paramètres avec optimisation (PET) avec relativement peu de données d'entraînement
Vérifie la sécurité de l'IA
Assurez-vous que la sécurité de l'IA respecte vos règles relatives au contenu grâce aux API et aux tableaux de bord de surveillance.
Service de modération du texte
Détectez une liste d'attributs de sécurité, y compris diverses catégories et sujets potentiellement dangereux pouvant être considérés comme sensibles, avec cette API Google Cloud Natural Language disponible sans frais sous une certaine limite d'utilisation.
API Perspective
Identifiez les commentaires "toxiques" à l'aide de cette API Google Jigsaw sans frais pour atténuer la toxicité en ligne et favoriser des échanges sains.