Responsible Generative AI Toolkit
Strumenti e linee guida per progettare, sviluppare e valutare modelli di IA aperti in modo responsabile.
Progettazione di applicazioni responsabili
Definisci regole per il comportamento del modello, crea un'applicazione sicura e responsabile e mantieni una comunicazione trasparente con gli utenti.
Allineamento alla sicurezza
Scopri tecniche di debug dei prompt e indicazioni per la messa a punto fine e l'ottimizzazione RLHF per allineare i modelli di IA ai criteri di sicurezza.
Valutazione del modello
Trova indicazioni e dati per condurre una valutazione solida del modello per sicurezza, equità e attendibilità con il comparatore LLM.
di output
Esegui il deployment di classificatori di sicurezza utilizzando soluzioni standard o creane uno tuo con tutorial passo passo.
Progettare un approccio responsabile
Identifica in modo proattivo i potenziali rischi della tua applicazione e definisci un approccio a livello di sistema per creare applicazioni sicure e responsabili per gli utenti.
Inizia
Definire i criteri a livello di sistema
Determina il tipo di contenuti che la tua applicazione deve e non deve generare.
Progettazione per la sicurezza
Definisci il tuo approccio generale per implementare le tecniche di mitigazione dei rischi, tenendo conto dei compromessi tecnici e aziendali.
Sii trasparente
Comunica il tuo approccio con elementi come le schede dei modelli.
Sistemi di IA sicura
Prendi in considerazione i rischi per la sicurezza specifici dell'IA e i metodi di correzione evidenziati nel Secure AI Framework (SAIF).
Allinea il modello
Allinea il modello alle tue norme di sicurezza specifiche utilizzando tecniche di impostazione e ottimizzazione.
Inizia
Creare prompt più sicuri e affidabili
Utilizza la potenza degli LLM per creare modelli di prompt più sicuri con la libreria Model Alignment.
Ottimizzare i modelli per la sicurezza
Controlla il comportamento del modello regolandolo in base alle tue norme sulla sicurezza e sui contenuti.
Esaminare i prompt del modello
Crea prompt sicuri e utili tramite il miglioramento iterativo con lo strumento Learning Interpretability Tool (LIT).
valuta il modello
Valuta i rischi dei modelli in termini di sicurezza, equità e accuratezza fattuale utilizzando le nostre indicazioni e i nostri strumenti.
Inizia
Comparatore LLM
Esegui valutazioni affiancate con il Confrontatore LLM per valutare qualitativamente le differenze nelle risposte tra i modelli, i diversi prompt per lo stesso modello o persino le diverse ottimizzazioni di un modello.
Linee guida per la valutazione del modello
Scopri le best practice del red team e valuta il tuo modello rispetto ai benchmark accademici per valutare i danni relativi a sicurezza, equità e attendibilità.
Proteggere con le salvaguardie
Filtra gli input e gli output dell'applicazione e proteggi gli utenti da risultati indesiderati.
Inizia
Testo SynthID
Uno strumento per l'applicazione di filigrane e il rilevamento del testo generato dal modello.
ShieldGemma
Una serie di classificatori di sicurezza dei contenuti, basati su Gemma 2, disponibili in tre dimensioni: 2B, 9B, 27B.
Classificatori agili
Crea classificatori di sicurezza per i tuoi criteri specifici utilizzando la regolazione efficiente dei parametri (PET) con relativamente pochi dati di addestramento
Controlla la sicurezza dell'IA
Assicurati la conformità alla sicurezza dell'IA in base ai tuoi criteri relativi ai contenuti con API e dashboard di monitoraggio.
Servizio di moderazione del testo
Rileva un elenco di attributi di sicurezza, tra cui varie categorie e argomenti potenzialmente dannosi che potrebbero essere considerati sensibili, con questa API Google Cloud Natural Language disponibile senza costi al di sotto di un determinato limite di utilizzo.
API Perspective
Identifica i commenti "tossici" con questa API senza costi di Google Jigsaw per mitigare la tossicità online e garantire un dialogo sano.