Toute approche responsable de l'application de l'intelligence artificielle (IA) doit inclure des règles de sécurité, des artefacts de transparence et des garanties, mais être responsable avec l'IA signifie bien plus que suivre des checklists.
Les produits d'IA générative sont relativement nouveaux, et les comportements d'une application peuvent varier davantage que les formes antérieures de logiciels. Pour cette raison, vous devez interroger les modèles utilisés pour examiner des exemples du comportement du modèle et examiner les surprises.
Les requêtes sont l'interface incontournable d'interaction avec l'IA générative.
l'ingénierie de ces requêtes est autant
de l'art que de la science. Toutefois, il existe des outils qui peuvent vous aider à améliorer empiriquement les requêtes pour les LLM, comme Learning Interpretability Tool (LIT). LIT est une plate-forme Open Source
un outil de compréhension visuelle et de débogage des modèles d'IA, qui peut être utilisé
un débogueur pour les tâches d'ingénierie des requêtes. Suivez le tutoriel fourni à l'aide de Colab ou d'un atelier de programmation.
Figure 1. Interface utilisateur de LIT: l'éditeur de points de données en haut
aux utilisateurs de modifier leurs requêtes. En bas, le module Salience LM permet
pour vérifier les résultats de saillance.
Inclure les équipes non techniques dans la vérification et l'exploration du modèle
L'interprétabilité doit être un effort d'équipe, impliquant des expertises dans les domaines de la politique, du droit, etc. Le support visuel et la capacité interactive de la LIT à examiner la saillance et à explorer des exemples peuvent aider différents partenaires à partager et à communiquer leurs résultats. Cette approche permet une plus grande
diversité de perspective dans
l'exploration, la vérification et le débogage du modèle. Exposer vos coéquipiers à ces méthodes techniques peut améliorer leur compréhension du fonctionnement des modèles. Dans
En outre, une expertise plus diversifiée dans les premiers tests de modèles peut également aider
découvrir des résultats indésirables qui peuvent être améliorés.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2024/10/23 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2024/10/23 (UTC)."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]