ShieldGemma
ShieldGemma è un insieme di modelli ottimizzati per le istruzioni per valutare la sicurezza dei prompt di testo risposte di input e output di testo rispetto a una serie di criteri di sicurezza definiti. Puoi utilizzare la modalità questo modello nell'ambito di un'implementazione più ampia di un'applicazione di IA generativa per valutare e impedire alle applicazioni di IA generativa di violare i criteri di sicurezza.
I modelli ShieldGemma sono basati su Gemma 2 in 2B, 9B e 27 miliardi di dimensioni dei parametri. Il modello è dotato di pesi aperti per consentirti di perfezionarlo per il tuo caso d'uso specifico. Questo insieme di modelli e di codice di implementazione di esempio è un del Toolkit per l'IA generativa responsabile.
-
Valutazione della sicurezza dei contenuti
Valuta la sicurezza delle risposte di input e di output dei prompt rispetto a una serie di criteri di sicurezza definiti. -
Modelli aperti e ottimizzabili
I modelli ShieldGemma sono forniti di pesi aperti e possono essere ottimizzati per il tuo caso d'uso specifico.