Kit d'IA générative responsable
Outils et conseils pour concevoir, développer et évaluer des modèles d'IA ouverts de manière responsable.
Conception responsable des applications
Définissez des règles de comportement du modèle, créez une application sûre et responsable, et communiquez de façon transparente avec les utilisateurs.
Alignement de sécurité
Découvrez des techniques de débogage des invites et des conseils pour l'affinage et le RLHF pour aligner les modèles d'IA sur les règles de sécurité.
Évaluation du modèle
Utilisez le comparateur LLM pour obtenir des conseils et des données qui vous aideront à évaluer efficacement votre modèle en termes de sécurité, d'impartialité et de factualité.
Mesures de protection
Déployez des classificateurs de sécurité à l'aide de solutions prêtes à l'emploi ou créez les vôtres grâce à des tutoriels détaillés.
Concevoir une approche responsable
Identifiez de manière proactive les risques potentiels liés à votre application et définissez une approche au niveau du système afin de créer des applications sûres et responsables pour les utilisateurs.
Commencer
Définir des règles au niveau du système
Déterminez le type de contenu que votre application doit et ne doit pas générer.
- <ph type="x-smartling-placeholder"></ph> Définir des stratégies
- <ph type="x-smartling-placeholder"></ph> Voir des exemples
Concevoir des outils sécurisés
Définissez votre approche globale pour mettre en œuvre des techniques d'atténuation des risques, en tenant compte des compromis techniques et commerciaux.
- <ph type="x-smartling-placeholder"></ph> En savoir plus
Soyez transparent
Communiquez votre approche à l'aide d'artefacts tels que les fiches de modèles.
- <ph type="x-smartling-placeholder"></ph> Voir les modèles
Sécuriser les systèmes d'IA
Examinez les risques de sécurité propres à l'IA et les méthodes de remédiation présentés dans le framework d'IA sécurisé (SAIF).
- <ph type="x-smartling-placeholder"></ph> Framework d'IA sécurisé de Google
- <ph type="x-smartling-placeholder"></ph> Documentation
Aligner le modèle
Alignez votre modèle sur vos règles de sécurité spécifiques à l'aide de techniques de requête et de réglage.
Commencer
Examiner les requêtes du modèle
Créez des requêtes utiles et sûres grâce à des améliorations itératives grâce à Learning Interpretability Tool (LIT).
- <ph type="x-smartling-placeholder"></ph> Essayer
- <ph type="x-smartling-placeholder"></ph> Learning Interpretability Tool
Régler les modèles pour garantir leur sécurité
Contrôlez son comportement en l'ajustant pour l'aligner sur vos règles relatives à la sécurité et au contenu.
- <ph type="x-smartling-placeholder"></ph> En savoir plus sur le réglage
- <ph type="x-smartling-placeholder"></ph> En savoir plus sur le réglage de SFT
- <ph type="x-smartling-placeholder"></ph> En savoir plus sur le réglage RLHF
Évaluer votre modèle
Évaluez les risques du modèle en termes de sécurité, d'impartialité et de précision factuelle à l'aide de nos conseils et de nos outils.
Commencer
Comparateur LLM
Effectuez des évaluations côte à côte avec le comparateur LLM pour évaluer qualitativement les différences de réponses entre les modèles, les requêtes pour le même modèle ou même les réglages d'un modèle.
- <ph type="x-smartling-placeholder"></ph> Essayer la démo
- <ph type="x-smartling-placeholder"></ph> En savoir plus sur le comparateur LLM
Consignes pour l'évaluation de modèles
Découvrez les bonnes pratiques de Red Team et évaluez votre modèle par rapport aux benchmarks académiques pour évaluer les dangers liés à la sécurité, à l'impartialité et à la factualité.
- <ph type="x-smartling-placeholder"></ph> En savoir plus
- <ph type="x-smartling-placeholder"></ph> Consulter les benchmarks
- <ph type="x-smartling-placeholder"></ph> Découvrir les bonnes pratiques de Red Team
Protégez-le à l'aide de protections
Filtrez les entrées et les sorties de votre application, et protégez les utilisateurs contre les résultats indésirables.
Commencer
ShieldGemma
Série de classificateurs de sécurité du contenu, basés sur Gemma 2, disponibles en trois tailles: 2B, 9B et 27B.
- <ph type="x-smartling-placeholder"></ph> Classeurs de sécurité du contenu ShieldGemma
Classificateurs Agile
Créez des classificateurs de sécurité pour vos règles spécifiques à l'aide d'un réglage efficace des paramètres (PET) avec peu de données d'entraînement.
- <ph type="x-smartling-placeholder"></ph> Créer des classificateurs de sécurité
Service de modération de texte
Détectez une liste d'attributs de sécurité, y compris divers sujets et catégories potentiellement dangereux, pouvant être considérés comme sensibles avec cette API Google Cloud Natural Language disponible sans frais en dessous d'une certaine limite d'utilisation.
- <ph type="x-smartling-placeholder"></ph> API Cloud Natural Language
- <ph type="x-smartling-placeholder"></ph> Tarifs de Cloud Natural Language
API Perspective
Identifier "toxique" avec cette API Google Jigsaw sans frais pour limiter la toxicité en ligne et instaurer des échanges sains.
- <ph type="x-smartling-placeholder"></ph> API Perspective