Build-Transparenz-Artefakte

Dokumentation ist eine wichtige Methode, um für Entwickler, Behörden, Akteure auf Richtlinien und Endnutzer Ihres Produkts Transparenz zu schaffen. Dies kann die Veröffentlichung detaillierter technischer Berichte oder von Modell-, Daten- und Systemkarten umfassen, die auf der Grundlage von Sicherheits- und anderen Modellbewertungen angemessen öffentlich zugänglich machen. Transparenzartefakte sind mehr als nur Kommunikationsmittel. Sie bieten KI-Forschern, -Bereitstellern und nachgelagerten Entwicklerinnen und Entwicklern auch eine Orientierungshilfe für den verantwortungsvollen Umgang mit dem Modell. Die Informationen sind auch für Endnutzer Ihres Produkts hilfreich, die Details über das Modell erfahren möchten.

Beachten Sie die folgenden Transparenzrichtlinien:

  • Seien Sie für Nutzer klar, wenn sie mit einer experimentellen Generative AI-Technologie interagieren, und weisen Sie auf unerwartetes Modellverhalten hin.
  • Sie bieten eine gründliche Dokumentation zur Funktionsweise des generativen KI-Dienstes oder -Produkts mit verständlicher Sprache an. Erwägen Sie die Veröffentlichung strukturierter Transparenzartefakte wie Modellkarten. Diese Karten bieten die vorgesehene Verwendung Ihres Modells und fassen Bewertungen zusammen, die während der Modellentwicklung durchgeführt wurden.
  • Zeigen Sie den Nutzern, wie sie Feedback geben und welche Kontrolle sie haben, z. B.:
    • Bereitstellung von Mechanismen, die Nutzenden helfen, faktenbasierte Fragen zu validieren
    • „Mag ich“- und „Mag ich nicht“-Symbole für Nutzerfeedback
    • Links zum Melden von Problemen und Unterstützung für eine schnelle Reaktion auf Nutzerfeedback
    • Nutzersteuerung zum Speichern oder Löschen von Nutzeraktivitäten

Ressourcen für Entwickler

Es gibt in der gesamten Branche keine einzige Vorlage für Transparenzartefakte, aber vorhandene Modellkarten können als Ausgangspunkt für die Erstellung eigener Modelle dienen:

Verweise