Boîte à outils pour l'IA générative responsable
Des outils et des conseils pour concevoir, développer et évaluer de manière responsable des modèles d'IA ouverts.
Conception responsable des applications
Définissez des règles de comportement du modèle, créez une application sûre et responsable, et communiquez de façon transparente avec les utilisateurs.
Alignement de sécurité
Découvrez des techniques de débogage des invites et des conseils pour l'affinage et le RLHF pour aligner les modèles d'IA sur les règles de sécurité.
Évaluation du modèle
Trouvez des conseils et des données pour effectuer une évaluation robuste du modèle en termes de sécurité, d'équité et de véracité avec le comparateur de LLM.
Mesures de protection
Déployez des classificateurs de sécurité à l'aide de solutions prêtes à l'emploi ou créez-en des propres à l'aide de tutoriels détaillés.
Concevoir une approche responsable
Identifiez de manière proactive les risques potentiels de votre application et définissez une approche au niveau du système pour créer des applications sûres et responsables pour les utilisateurs.
Commencer
Définir des règles au niveau du système
Déterminez le type de contenu que votre application doit générer et celui qu'elle ne doit pas générer.
Concevoir des outils sécurisés
Définissez votre approche globale pour mettre en œuvre des techniques d'atténuation des risques, en tenant compte des compromis techniques et commerciaux.
Soyez transparent
Communiquez votre approche à l'aide d'artefacts tels que les fiches de modèles.
Sécuriser les systèmes d'IA
Tenez compte des risques de sécurité spécifiques à l'IA et des méthodes de correction mises en avant dans le framework d'IA sécurisé (SAIF).
Aligner le modèle
Alignez votre modèle sur vos règles de sécurité spécifiques à l'aide de techniques de requête et de réglage.
Commencer
Créez des requêtes plus sûres et plus robustes
Exploitez la puissance des LLM pour créer des modèles de requêtes plus sécurisés avec la bibliothèque d'alignement des modèles.
Régler les modèles pour garantir leur sécurité
Contrôlez le comportement du modèle en l'adaptant à vos règles de sécurité et de contenu.
Examiner les requêtes du modèle
Créez des requêtes utiles et sûres grâce à des améliorations itératives grâce à Learning Interpretability Tool (LIT).
Évaluer votre modèle
Évaluez les risques liés aux modèles en termes de sécurité, d'impartialité et de précision factuelle à l'aide de nos conseils et de nos outils.
Commencer
Comparateur LLM
Effectuez des évaluations côte à côte avec le comparateur LLM pour évaluer qualitativement les différences de réponses entre les modèles, les requêtes pour le même modèle ou même les réglages d'un modèle.
Consignes relatives à l'évaluation des modèles
Découvrez les bonnes pratiques de red teaming et comparez votre modèle à des benchmarks universitaires pour évaluer les dommages liés à la sécurité, à l'équité et à la véracité.
Protégez-vous à l'aide de protections
Filtrez les entrées et les sorties de votre application, et protégez les utilisateurs contre les résultats indésirables.
Commencer
Texte SynthID
Outil permettant de marquer par filigrane et de détecter le texte généré par votre modèle.
ShieldGemma
Série de classificateurs de sécurité des contenus, basés sur Gemma 2, disponible en trois tailles : 2 milliards, 9 milliards et 27 milliards.
Classificateurs Agile
Créez des classificateurs de sécurité pour vos règles spécifiques à l'aide d'un réglage efficace des paramètres (PET) avec peu de données d'entraînement.
Vérifie la sécurité de l'IA
Assurez-vous que l'IA respecte vos règles de contenu à l'aide d'API et de tableaux de bord de surveillance.
Service de modération de texte
Détectez une liste d'attributs de sécurité, y compris diverses catégories et sujets potentiellement dangereux pouvant être considérés comme sensibles, avec cette API Google Cloud Natural Language disponible gratuitement sous une certaine limite d'utilisation.
API Perspective
Identifier "toxique" avec cette API Google Jigsaw sans frais pour limiter la toxicité en ligne et instaurer des échanges sains.