Qualsiasi approccio responsabile all'applicazione dell'intelligenza artificiale (IA) deve includere
norme di sicurezza,
elementi di trasparenza e
garanzie, ma essere responsabili con l'IA significa molto più che
seguire le liste di controllo.
I prodotti di IA generativa sono relativamente nuovi e il comportamento di un'applicazione può variare
più rispetto alle forme precedenti di software. Per questo motivo, devi analizzare i modelli in uso per esaminare esempi del comportamento del modello e verificare le sorprese.
La richiesta è l'interfaccia onnipresente per interagire con l'IA generativa.
progettare questi prompt è tanto arte che scienza. Tuttavia, esistono strumenti che possono aiutarti a migliorare empiricamente i prompt per gli LLM, come lo strumento di interpretabilità dell'apprendimento (LIT). LIT è uno strumento open source per comprendere visivamente e eseguire il debug dei modelli di IA, che può essere utilizzato come debugger per il lavoro di progettazione dei prompt. Segui il
tutorial fornito utilizzando Colab o Codelab.
Figura 1. Interfaccia utente di LIT: l'editor dei punti dati in alto consente agli utenti di modificare i prompt. Nella parte inferiore, il modulo LM Salience consente loro
per controllare i risultati della rilevanza.
Includi team non tecnici nel probe e nell'esplorazione del modello
L'interpretabilità è pensata come un lavoro di squadra, che richiede competenze in materia di norme, diritto e altro ancora. Mezzo visivo delle LIT e capacità interattiva di esaminare
la rilevanza e l'esplorazione degli esempi possono aiutare i vari stakeholder a condividere
comunicare i risultati. Questo approccio consente una maggiore diversità di prospettive
esplorazione, probe e debug del modello. Mettere i tuoi colleghi in contatto con questi metodi tecnici può aiutarli a comprendere meglio il funzionamento dei modelli. Nella
Inoltre, una serie più diversificata di competenze nei test iniziali del modello può aiutare
e scoprire risultati indesiderati che possono essere migliorati.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-10-23 UTC."],[],[],null,["# Prompt debugging with LIT\n\n\u003cbr /\u003e\n\nAny responsible approach to applying artificial intelligence (AI) should include\n[safety policies](/responsible/docs/design#define-policies),\n[transparency artifacts](/responsible/docs/design#transparency-artifacts), and\n[safeguards](/responsible/docs/safeguards), but being responsible with AI means more than\nfollowing checklists.\n\nGenAI products are relatively new and the behaviors of an application can vary\nmore than earlier forms of software. For this reason, you should probe the\nmodels being used to examine examples of the model's behavior, and investigate\nsurprises.\n\nPrompting is the ubiquitous interface for interacting with GenAI, and\nengineering those prompts is as much art as it is science. However, there are\ntools that can help you empirically improve prompts for LLMs, such as the\n[Learning Interpretability Tool](https://pair-code.github.io/lit/) (LIT). LIT is an open-source\ntool for visually understanding and debugging AI models, that can be used as\na [debugger for prompt engineering work](https://pair-code.github.io/lit/documentation/components.html#sequence-salience). Follow along with the\n[provided tutorial](https://pair-code.github.io/lit/tutorials/sequence-salience/) using the Colab or Codelab.\n\n**Analyze Gemma Models with LIT**\n\n|---|-------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------|\n| | [Start Codelab](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-gemma) | [Start Google Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb) |\n\n\u003cbr /\u003e\n\n*Figure 1.* The LIT's user interface: the Datapoint Editor at the top allows\nusers to edit their prompts. At the bottom, the LM Salience module allows them\nto check saliency results.\n\nYou can use LIT on your [local machine](https://pair-code.github.io/lit/documentation/getting_started.html#installation), in\n[Colab](https://colab.research.google.com/github/google/generative-ai-docs/blob/main/site/en/gemma/docs/lit_gemma.ipynb), or on [Google Cloud](https://codelabs.developers.google.com/codelabs/responsible-ai/lit-on-gcp).\n\nInclude non-technical teams in model probing and exploration\n------------------------------------------------------------\n\nInterpretability is meant to be a team effort, spanning expertise across\npolicy, legal, and more. LIT's visual medium and interactive ability to examine\nsalience and explore examples can help different stakeholders share and\ncommunicate findings. This approach can enables more diversity of perspective in\nmodel exploration, probing, and debugging. Exposing your teammates to these\ntechnical methods can enhance their understanding of how models work. In\naddition, a more diverse set of expertise in early model testing can also help\nuncover undesirable outcomes that can be improved."]]