Toolkit per l'IA generativa responsabile

Questo toolkit fornisce risorse per applicare le best practice per l'uso responsabile di modelli aperti, come i modelli Gemma,

  • Guida alla configurazione dei criteri di sicurezza, dell'ottimizzazione della sicurezza, dei classificatori di sicurezza e della valutazione dei modelli.
  • Lo strumento di interpretabilità dell'apprendimento (LIT) per analizzare il comportamento di Gemma e risolvere potenziali problemi.
  • Una metodologia per creare classificatori di sicurezza affidabili con un numero minimo di esempi.

Questa versione del toolkit è incentrata solo sui modelli da testo a testo in inglese. Puoi fornire feedback per rendere più utile questo toolkit tramite il link al meccanismo di feedback nella parte inferiore della pagina.

Quando crei con Gemma, devi adottare un approccio olistico alla responsabilità e considerare tutte le possibili sfide a livello di applicazione e modello. Questo toolkit illustra le tecniche di rischio e mitigazione per affrontare sicurezza, privacy, equità e responsabilità.

Diagramma funzionale delle pratiche di IA responsabile

Dai un'occhiata al resto di questo toolkit per ulteriori informazioni e indicazioni:

Autori e collaboratori

Questo toolkit si basa su ricerche e strumenti di vari team di Google, tra cui i seguenti autori e collaboratori:

Ludovic Peran, Kathy Meier-Hellstern, Lucas Dixon, Reena Jana, Oscar Wahltinez, Clément Crepy, Ryan Mullins, Ian Tenney, Ted Klimenko, Shree Pandya, Nithum Thain, Mackenzie Thomas, Hayden Schaffer, Biner-Maken-Du, Seliraceed