ShieldGemma

ShieldGemma è un insieme di modelli ottimizzati per le istruzioni per valutare la sicurezza dei prompt di testo risposte di input e output di testo rispetto a una serie di criteri di sicurezza definiti. Puoi utilizzare la modalità questo modello nell'ambito di un'implementazione più ampia di un'applicazione di IA generativa per valutare e impedire alle applicazioni di IA generativa di violare i criteri di sicurezza.

I modelli ShieldGemma sono basati su Gemma 2 in 2B, 9B e 27 miliardi di dimensioni dei parametri. Il modello è dotato di pesi aperti per consentirti di perfezionarlo per il tuo caso d'uso specifico. Questo insieme di modelli e di codice di implementazione di esempio è un del Toolkit per l'IA generativa responsabile.

  • Valuta la sicurezza delle risposte di input e di output dei prompt rispetto a una serie di criteri di sicurezza definiti.
  • I modelli ShieldGemma sono forniti di pesi aperti e possono essere ottimizzati per il tuo caso d'uso specifico.

Scopri di più

La scheda del modello di ShieldGemma contiene informazioni dettagliate sull'implementazione, le valutazioni, l'utilizzo e le limitazioni del modello e altro ancora.
Visualizza altro codice, blocchi note di Colab, informazioni e discussioni relative a ShieldGemma su Kaggle.
Esegui un esempio funzionante per l'utilizzo di ShieldGemma per valutare l'input e l'output dei prompt di testo.