Toolkit per l'IA generativa responsabile
Strumenti e linee guida per progettare, creare e valutare modelli di IA aperti in modo responsabile.
Progettazione responsabile delle applicazioni
Definisci regole per il comportamento del modello, crea un'applicazione sicura e affidabile e mantieni una comunicazione trasparente con gli utenti.
Allineamento di sicurezza
Scopri le tecniche di debug dei prompt e le indicazioni per l'ottimizzazione e l'RLHF per allineare i modelli di IA ai criteri di sicurezza.
Valutazione del modello
Trova indicazioni e dati per condurre una valutazione efficace del modello in termini di sicurezza, equità e oggettività con il confronto LLM.
di output
Esegui il deployment di classificatori di sicurezza utilizzando soluzioni pronte all'uso o creane di tuoi con tutorial passo passo.
Progetta un approccio responsabile
Identifica in modo proattivo i potenziali rischi della tua applicazione e definisci un approccio a livello di sistema per creare applicazioni sicure e responsabili per gli utenti.
Inizia
Definisci i criteri a livello di sistema
Determina il tipo di contenuti che l'applicazione deve o non deve generare.
Progetta tenendo a mente la sicurezza
Definisci il tuo approccio complessivo per implementare tecniche di mitigazione del rischio, tenendo conto dei compromessi tecnici e aziendali.
Sii trasparente
Comunica il tuo approccio con elementi come le schede del modello.
Sistemi di AI sicuri
Prendere in considerazione i rischi per la sicurezza specifici dell'IA e i metodi di correzione messi in evidenza nel Secure AI Framework (SAIF).
Allinea il modello
Allinea il modello ai tuoi criteri di sicurezza specifici utilizzando tecniche di prompt e ottimizzazione.
Inizia
Analizza i prompt del modello
Crea prompt sicuri e utili attraverso miglioramenti iterativi con lo strumento di interpretabilità dell'apprendimento (LIT).
Ottimizza i modelli per la sicurezza
Controlla il comportamento del modello ottimizzandolo in modo che sia in linea con le norme relative alla sicurezza e ai contenuti.
valuta il modello
Valuta i rischi del modello in termini di sicurezza, equità e accuratezza dei fatti utilizzando le nostre linee guida e i nostri strumenti.
Inizia
Comparatore LLM
Esegui valutazioni affiancate con LLM Comparator per valutare qualitativamente le differenze nelle risposte tra i modelli, prompt diversi per lo stesso modello o persino ottimizzazioni diverse di un modello
Linee guida per la valutazione del modello
Scopri le best practice del red team e valuta il tuo modello rispetto ai benchmark accademici per valutare i danni in termini di sicurezza, equità e oggettività.
Proteggiti con misure di sicurezza
Filtra gli input e gli output della tua applicazione e proteggi gli utenti da risultati indesiderati.
Inizia
ShieldGemma
Una serie di classificatori di sicurezza dei contenuti, costruiti su Gemma 2, disponibili in tre taglie: 2B, 9B, 27B.
Classificatori agili
Crea classificatori di sicurezza per i tuoi criteri specifici utilizzando l'ottimizzazione efficiente dei parametri (PET) con dati di addestramento relativamente pochi
Servizio di moderazione del testo
Rileva un elenco di attributi di sicurezza, tra cui varie categorie potenzialmente dannose e argomenti che potrebbero essere considerati sensibili con questa API Google Cloud Natural Language disponibile senza costi al di sotto di un determinato limite di utilizzo.
API Perspective
Identificare "tossico" commenti con questa API di Google Jigsaw senza costi per mitigare la tossicità online e garantire un dialogo sano.