Toolkit per l'IA generativa responsabile
Strumenti e linee guida per progettare, sviluppare e valutare modelli di IA aperti in modo responsabile.
Progettazione di applicazioni responsabili
Definisci regole per il comportamento del modello, crea un'applicazione sicura e responsabile e mantieni una comunicazione trasparente con gli utenti.
Allineamento alla sicurezza
Scopri le tecniche di debug dei prompt e le indicazioni per l'ottimizzazione e l'RLHF per allineare i modelli di IA ai criteri di sicurezza.
Valutazione del modello
Trova indicazioni e dati per eseguire una valutazione solida del modello per sicurezza, equità e attendibilità con il comparatore LLM.
di output
Esegui il deployment di classificatori di sicurezza utilizzando soluzioni standard o creane uno tuo con tutorial passo passo.
Progetta un approccio responsabile
Identifica in modo proattivo i potenziali rischi della tua applicazione e definisci un approccio a livello di sistema per creare applicazioni sicure e responsabili per gli utenti.
Inizia
Definire i criteri a livello di sistema
Determina il tipo di contenuti che l'applicazione deve o non deve generare.
Progettazione per la sicurezza
Definisci il tuo approccio generale per implementare le tecniche di mitigazione del rischio, tenendo conto dei compromessi tecnici e aziendali.
Sii trasparente
Comunica il tuo approccio con elementi come le schede del modello.
Sistemi di AI sicuri
Prendi in considerazione i rischi per la sicurezza specifici dell'IA e i metodi di correzione evidenziati nel Secure AI Framework (SAIF).
Allinea il modello
Allinea il tuo modello alle tue norme di sicurezza specifiche utilizzando tecniche di impostazione e ottimizzazione.
Inizia
Crea prompt più sicuri e affidabili
Sfrutta la potenza degli LLM per creare modelli di prompt più sicuri con la libreria Allineamento modello.
Ottimizzare i modelli per la sicurezza
Controlla il comportamento del modello ottimizzandolo in base alle tue norme sulla sicurezza e sui contenuti.
Esaminare i prompt del modello
Crea prompt sicuri e utili tramite il miglioramento iterativo con lo strumento Learning Interpretability Tool (LIT).
valuta il modello
Valuta i rischi dei modelli in termini di sicurezza, equità e accuratezza fattuale utilizzando le nostre indicazioni e i nostri strumenti.
Inizia
Comparatore LLM
Esegui valutazioni affiancate con LLM Comparator per valutare qualitativamente le differenze nelle risposte tra i modelli, prompt diversi per lo stesso modello o persino ottimizzazioni diverse di un modello
Linee guida per la valutazione del modello
Scopri le best practice del red team e valuta il tuo modello rispetto ai benchmark accademici per valutare i danni in termini di sicurezza, equità e oggettività.
Proteggiti con misure di sicurezza
Filtra gli input e gli output dell'applicazione e proteggi gli utenti da risultati indesiderati.
Inizia
Testo SynthID
Uno strumento per il watermarking e il rilevamento del testo generato dal modello.
ShieldGemma
Una serie di classificatori per la sicurezza dei contenuti, basati su Gemma 2, disponibili in tre dimensioni: 2B, 9B, 27B.
Classificatori agili
Crea classificatori di sicurezza per i tuoi criteri specifici utilizzando la regolazione efficiente dei parametri (PET) con relativamente pochi dati di addestramento
Controlla la sicurezza dell'IA
Garantisci la conformità alla sicurezza dell'IA rispetto ai tuoi criteri relativi ai contenuti con API e dashboard di monitoraggio.
Servizio di moderazione del testo
Rileva un elenco di attributi di sicurezza, tra cui varie categorie e argomenti potenzialmente dannosi che potrebbero essere considerati sensibili, con questa API Google Cloud Natural Language disponibile gratuitamente al di sotto di un determinato limite di utilizzo.
API Perspective
Identificare "tossico" commenti con questa API di Google Jigsaw senza costi per mitigare la tossicità online e garantire un dialogo sano.