Los productos de IA generativa son relativamente nuevos, y los comportamientos de una aplicación pueden variar
más que las formas anteriores de software. Por este motivo, debes sondear
de modelos que se usan para examinar ejemplos de comportamiento del modelo y, además, investigar
sorpresas.
Las indicaciones son la interfaz omnipresente para interactuar con la IA generativa, y la ingeniería de esas indicaciones es tanto arte como ciencia. Sin embargo, existen herramientas que pueden ayudarte a mejorar empíricamente las instrucciones para los LLM, como la herramienta de interpretabilidad del aprendizaje (LIT). LIT es una herramienta de código abierto para comprender y depurar visualmente modelos de IA, que se puede usar como depurador para trabajos de ingeniería rápidos. Sigue las indicaciones
instructivo proporcionado mediante Colab o Codelab.
Figura 1: La interfaz de usuario de LIT: el editor de datos en la parte superior permite
que los usuarios editen sus instrucciones. En la parte inferior, el módulo de prominencia de LM le permite
para comprobar los resultados de prominencia.
Incluye equipos no técnicos en la exploración y el sondeo de modelos
La interpretabilidad debe ser un esfuerzo de equipo que abarque la experiencia en políticas, asuntos legales y mucho más. Medio visual y capacidad interactiva de LIT para examinar
importancia y explorar ejemplos puede ayudar a diferentes interesados a compartir y
comunicar los resultados. Este enfoque permite una mayor diversidad de perspectivas
exploración, sondeo y depuración de modelos. Exponer a tus compañeros de equipo a estos
los métodos técnicos pueden mejorar su comprensión del funcionamiento de los modelos. Además, un conjunto más diverso de experiencia en las pruebas iniciales de modelos también puede ayudar a descubrir resultados no deseados que se pueden mejorar.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-10-23 (UTC)"],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]