Crea artefatti di trasparenza

La documentazione è un metodo chiave per ottenere trasparenza per sviluppatori, governi, attori delle norme e utenti finali del tuo prodotto. Ciò può comportare il rilascio di report tecnici dettagliati o di modelli, dati e schede di sistema che rendono pubbliche informazioni essenziali in base alla sicurezza e ad altre valutazioni dei modelli. Gli artefatti della trasparenza non sono solo veicoli di comunicazione, ma offrono anche indicazioni a ricercatori IA, deployment e sviluppatori downstream sull'uso responsabile del modello. Le informazioni sono utili anche per gli utenti finali del prodotto, che vogliono capire i dettagli del modello.

Alcune linee guida sulla trasparenza da considerare:

  • Spiega chiaramente agli utenti quando interagiscono con una tecnologia di IA generativa sperimentale ed evidenzia la possibilità di un comportamento imprevisto del modello.
  • Offri una documentazione completa su come funziona il prodotto o il servizio di IA generativa utilizzando un linguaggio comprensibile. Valuta la possibilità di pubblicare artefatti di trasparenza strutturata come le schede dei modelli. Queste schede forniscono l'uso previsto del modello e riassumono le valutazioni eseguite durante lo sviluppo del modello.
  • Mostra alle persone come possono fornire un feedback e come ne hanno il controllo, ad esempio:
    • Fornire meccanismi per aiutare gli utenti a convalidare domande basate sui fatti
    • Icone Mi piace e Non mi piace per il feedback degli utenti
    • Link per segnalare problemi e offrire assistenza per una risposta rapida al feedback degli utenti
    • Controllo utente per l'archiviazione o l'eliminazione delle attività utente

Risorse per sviluppatori

Non esiste un unico modello per gli artefatti di trasparenza nel settore, ma le schede dei modelli esistenti possono servire da punto di partenza per creare i tuoi:

Riferimenti