ShieldGemma

ShieldGemma est un ensemble de modèles optimisés par instruction permettant d'évaluer la sécurité du texte et des images par rapport à un ensemble de règles de sécurité définies. Vous pouvez utiliser ce modèle dans le cadre d'une implémentation plus large d'une application d'IA générative pour évaluer et empêcher les applications d'IA générative de ne pas respecter les règles de sécurité. La famille de modèles ShieldGemma est fournie avec des poids ouverts pour vous permettre de l'ajuster à votre cas d'utilisation spécifique.

ShieldGemma 2 est un modèle de 4 milliards de paramètres conçu pour ajouter des libellés aux images à des fins de sécurité.

ShieldGemma 1 est basé sur Gemma 2 avec des tailles de paramètres de 2 milliards, 9 milliards et 27 milliards.

  • Évaluez la sécurité des réponses d'entrée et de sortie des requêtes par rapport à un ensemble de règles de sécurité définies.
  • Les modèles ShieldGemma sont fournis avec des pondérations ouvertes et peuvent être affinés pour votre cas d'utilisation spécifique.

ShieldGemma 2

La fiche du modèle ShieldGemma 2 contient des informations détaillées sur l'implémentation, les évaluations, l'utilisation et les limites du modèle, et plus encore.
Affichez plus de code, des notebooks Colab, des informations et des discussions à propos de ShieldGemma sur Kaggle.
Exécutez un exemple d'utilisation de ShieldGemma pour évaluer des images.

ShieldGemma 1

La fiche de modèle de ShieldGemma contient des informations détaillées sur l'implémentation, les évaluations, l'utilisation et les limites du modèle, etc.
Affichez plus de code, des notebooks Colab, des informations et des discussions à propos de ShieldGemma sur Kaggle.
Exécutez un exemple fonctionnel d'utilisation de ShieldGemma pour évaluer l'entrée et la sortie de requêtes textuelles.