Responsible Generative AI-Toolkit

Dieses Toolkit bietet Ressourcen zur Anwendung von Best Practices für den verantwortungsvollen Einsatz offener Modelle wie der Gemma-Modelle, darunter:

  • Anleitungen zum Festlegen von Sicherheitsrichtlinien, Sicherheitseinstellungen, Sicherheitsklassifikatoren und Modellbewertung.
  • Das Learning Interpretability Tool (LIT) zur Untersuchung des Verhaltens von Gemma und zum Beheben potenzieller Probleme
  • Eine Methode zum Erstellen robuster Sicherheitsklassifikatoren mit wenigen Beispielen.

Diese Version des Toolkits konzentriert sich nur auf englische Text-zu-Text-Modelle. Über den Feedback-Mechanismus unten auf der Seite können Sie Feedback geben, um dieses Toolkit noch hilfreicher zu machen.

Bei der Entwicklung mit Gemma sollten Sie einen ganzheitlichen Ansatz für Verantwortung verfolgen und alle möglichen Herausforderungen auf Anwendungs- und Modellebene berücksichtigen. Dieses Toolkit behandelt Techniken zur Risiko- und Minderung der Sicherheit, Datenschutz, Fairness und Rechenschaftspflicht.

Funktionsdiagramm zu Responsible AI-Praktiken

Weitere Informationen und Anleitungen enthält das restliche Toolkit:

Autoren und Beitragende

Dieses Toolkit basiert auf Recherchen und Tools verschiedener Teams bei Google, darunter die folgenden Autoren und Beitragenden:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thain, Mackenzie Thomas, Hayem Schafesfer, Bin Du W, Hayem Schafensayed, Bin Du W, Seliden Schafished