Jeder verantwortungsbewusste Ansatz bei der Anwendung von künstlicher Intelligenz (KI) sollte Sicherheitsrichtlinien, Transparenzelemente und Sicherheitsmaßnahmen umfassen. Der verantwortungsvolle Umgang mit KI bedeutet jedoch mehr als das Abhaken von Checklisten.
Produkte für generative KI sind relativ neu und das Verhalten einer Anwendung kann variieren
als frühere Formen von Software. Aus diesem Grund sollten Sie die verwendeten Modelle testen, um Beispiele für das Verhalten des Modells zu untersuchen und unerwartete Ergebnisse zu untersuchen.
Prompting ist die allgegenwärtige Schnittstelle für die Interaktion mit generativer KI.
Das Erstellen dieser Aufgaben ist
so viel Kunst wie Wissenschaft. Es gibt jedoch
Tools, mit denen Sie Aufgaben für LLMs empirisch verbessern können, z. B.
Learning Interpretability Tool (LIT): LIT ist ein Open-Source-Tool zum visuellen Verständnis und zur Fehlerbehebung von KI-Modellen, das als Debugger für schnelle Entwicklungsarbeit verwendet werden kann. Folgen Sie der angegebenen Anleitung mit Colab oder Codelab.
Abbildung 1. Die Benutzeroberfläche von LIT: Der Datapoint Editor oben
die Nutzer ihre Aufforderungen bearbeiten können. Unten können sie mit dem
LM Salience-Modul
um die Auffälligkeitsergebnisse zu überprüfen.
Nicht technische Teams in die Modellerprobung und explorative Datenanalyse einbeziehen
Interpretierbarkeit ist auf Teamarbeit ausgelegt, die Fachwissen über
Richtlinien, Rechtliches und mehr. Das visuelle Medium und die interaktive Fähigkeit von LIT,
Auffälligkeit und Beispiele untersuchen, können verschiedenen Stakeholdern helfen,
und kommunizieren Ergebnisse. Dieser Ansatz kann für mehr Vielfalt in der Perspektive
Erkunden, Testen und Debuggen von Modellen. Ihre Teamkollegen mit diesen
technischen Methoden ihr Verständnis der Funktionsweise von Modellen erweitern. Darüber hinaus kann eine größere Vielfalt an Fachwissen in frühen Modelltests dazu beitragen, unerwünschte Ergebnisse zu erkennen, die verbessert werden können.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2024-10-23 (UTC)."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]