Depuración de instrucciones con LIT

Todo enfoque responsable para aplicar la Inteligencia Artificial (IA) debe incluir políticas de seguridad artefactos de transparencia y protecciones, pero ser responsable con la IA significa más que las siguientes listas de tareas.

Los productos de IA generativa son relativamente nuevos, y los comportamientos de una aplicación pueden variar más que las formas anteriores de software. Por este motivo, debes sondear de modelos que se usan para examinar ejemplos de comportamiento del modelo y, además, investigar sorpresas.

Las indicaciones son la interfaz omnipresente para interactuar con la IA generativa, y la ingeniería de esas indicaciones es tanto arte como ciencia. Sin embargo, existen herramientas que pueden ayudarte a mejorar empíricamente las instrucciones para los LLM, como la herramienta de interpretabilidad del aprendizaje (LIT). LIT es una herramienta de código abierto para comprender y depurar visualmente modelos de IA, que se puede usar como depurador para trabajos de ingeniería rápidos. Sigue las indicaciones instructivo proporcionado mediante Colab o Codelab.

Cómo analizar modelos de Gemma con LIT

Iniciar codelab Iniciar Google Colab

Animación de la interfaz de usuario de la herramienta de interpretabilidad de aprendizaje (LIT)

Figura 1: La interfaz de usuario de LIT: el editor de datos en la parte superior permite que los usuarios editen sus instrucciones. En la parte inferior, el módulo de prominencia de LM le permite para comprobar los resultados de prominencia.

Puedes usar LIT en tu máquina local, en Colab o en Google Cloud.

Incluye equipos no técnicos en la exploración y el sondeo de modelos

La interpretabilidad debe ser un esfuerzo de equipo que abarque la experiencia en políticas, asuntos legales y mucho más. Medio visual y capacidad interactiva de LIT para examinar importancia y explorar ejemplos puede ayudar a diferentes interesados a compartir y comunicar los resultados. Este enfoque permite una mayor diversidad de perspectivas exploración, sondeo y depuración de modelos. Exponer a tus compañeros de equipo a estos los métodos técnicos pueden mejorar su comprensión del funcionamiento de los modelos. Además, un conjunto más diverso de experiencia en las pruebas iniciales de modelos también puede ayudar a descubrir resultados no deseados que se pueden mejorar.