Toolkit für verantwortungsbewusste generative KI
Tools und Anleitungen zum verantwortungsvollen Entwerfen, Erstellen und Bewerten offener KI-Modelle.
Verantwortungsbewusstes Anwendungsdesign
Legen Sie Regeln für das Modellverhalten fest, erstellen Sie eine sichere und verantwortungsbewusste Anwendung und pflegen Sie eine transparente Kommunikation mit den Nutzern.
Ausrichtung auf Sicherheit
Entdecken Sie Prompt-Debugging-Techniken und Anleitungen für die Feinabstimmung und RLHF, um KI-Modelle mit Sicherheitsrichtlinien abzustimmen.
Modellbewertung
Mit dem LLM-Vergleicher erhalten Sie Orientierungshilfen und Daten, mit denen Sie eine solide Modellbewertung im Hinblick auf Sicherheit, Fairness und Wahrheitsgehalt durchführen können.
Sicherheitsmaßnahmen
Sie können Sicherheitsklassifikatoren mithilfe von Standardlösungen bereitstellen oder mithilfe von Schritt-für-Schritt-Anleitungen eigene Lösungen entwickeln.
Einen verantwortungsbewussten Ansatz entwickeln
Identifizieren Sie proaktiv potenzielle Risiken Ihrer Anwendung und definieren Sie einen Ansatz auf Systemebene, um sichere und verantwortungsbewusste Anwendungen für Nutzer zu entwickeln.
Jetzt starten
Richtlinien auf Systemebene definieren
Bestimmen Sie, welche Art von Inhalten Ihre Anwendung generieren soll und welche nicht.
Sicherheit bei der Entwicklung
Definieren Sie Ihren Gesamtansatz zur Implementierung von Techniken zur Risikominderung unter Berücksichtigung technischer und geschäftlicher Kompromisse.
Transparent sein
Vermitteln Sie Ihren Ansatz mithilfe von Artefakten wie Modellkarten.
Sichere KI-Systeme
Berücksichtigen Sie KI-spezifische Sicherheitsrisiken und Abhilfemethoden, die im Secure AI Framework (SAIF) hervorgehoben werden.
Modell ausrichten
Passen Sie Ihr Modell mithilfe von Prompting- und Feinabstimmungstechniken an Ihre spezifischen Sicherheitsrichtlinien an.
Jetzt starten
Sicherere, zuverlässigere Prompts erstellen
Mithilfe von LLMs können Sie mit der Bibliothek für die Modellausrichtung sicherere Promptvorlagen erstellen.
Modelle für Sicherheit optimieren
Steuern Sie das Modellverhalten, indem Sie es an Ihre Sicherheits- und Inhaltsrichtlinien anpassen.
Modellvorschläge untersuchen
Mit dem Learning Interpretability Tool (LIT) können Sie durch iterative Verbesserungen sichere und hilfreiche Prompts erstellen.
Modell bewerten
Mithilfe unserer Anleitungen und Tools können Sie die Risiken von Modellen in Bezug auf Sicherheit, Fairness und sachliche Richtigkeit bewerten.
Jetzt starten
LLM-Vergleicher
Mit LLM Comparator vergleichende Bewertungen durchführen, um Unterschiede in Antworten zwischen Modellen, unterschiedliche Prompts für dasselbe Modell oder sogar verschiedene Feinabstimmungen eines Modells qualitativ zu bewerten
Richtlinien für die Modellbewertung
Informieren Sie sich über die Best Practices für Red-Team-Einsätze und bewerten Sie Ihr Modell anhand akademischer Benchmarks, um Schäden in Bezug auf Sicherheit, Fairness und Faktizität zu bewerten.
Mit Schutzmaßnahmen schützen
Filtern Sie die Eingaben und Ausgaben Ihrer Anwendung und schützen Sie Nutzer vor unerwünschten Ergebnissen.
Jetzt starten
SynthID-Text
Ein Tool zum Wasserzeichen und zum Erkennen von Text, der von Ihrem Modell generiert wurde.
ShieldGemma
Eine Reihe von Inhaltsklassifikatoren, die auf Gemma 2 basieren und in drei Größen erhältlich sind: 2B, 9B und 27B.
Agile Klassifikatoren
Erstellen Sie mithilfe von Parameter-Effizienter Abstimmung (PET) mit relativ wenigen Trainingsdaten Sicherheitsklassifikatoren für Ihre spezifischen Richtlinien.
KI-Sicherheit prüfen
Mit APIs und Monitoring-Dashboards für die Sicherheit von KI sorgen, dass Ihre Inhalte den Richtlinien entsprechen
Textmoderationsdienst
Mit dieser Google Cloud Natural Language API, die unter einem bestimmten Nutzungslimit kostenlos verfügbar ist, können Sie eine Liste von Sicherheitsattributen erkennen, darunter verschiedene potenziell schädliche Kategorien und Themen, die als sensibel eingestuft werden können.
Perspective API
„Unangemessen“ identifizieren mit dieser kostenlosen Google Jigsaw API, um unangemessene Kommentare im Internet abzuschwächen und einen konstruktiven Dialog zu fördern.