Toolkit per l'IA generativa responsabile
Strumenti e indicazioni per progettare, sviluppare e valutare modelli di IA aperti in modo responsabile.
Progettazione di applicazioni responsabili
Definisci le regole di comportamento del modello, crea un'applicazione sicura e affidabile e mantieni una comunicazione trasparente con gli utenti.
Allineamento alla sicurezza
Scopri le tecniche di debug dei prompt e le indicazioni per l'ottimizzazione e l'RLHF per allineare i modelli di IA ai criteri di sicurezza.
Valutazione del modello
Trova indicazioni e dati per condurre una valutazione efficace del modello in termini di sicurezza, equità e oggettività con il confronto LLM.
di output
Esegui il deployment di classificatori di sicurezza utilizzando soluzioni standard o creane uno tuo con tutorial passo passo.
Progettare un approccio responsabile
Identifica in modo proattivo i potenziali rischi della tua applicazione e definisci un approccio a livello di sistema per creare applicazioni sicure e responsabili per gli utenti.
Inizia
Definisci i criteri a livello di sistema
Determina il tipo di contenuti che l'applicazione deve o non deve generare.
Progettazione per la sicurezza
Definisci il tuo approccio generale per implementare le tecniche di mitigazione dei rischi, tenendo conto dei compromessi tecnici e aziendali.
Sii trasparente
Comunica il tuo approccio con elementi come le schede dei modelli.
Sistemi di IA sicura
Prendere in considerazione i rischi per la sicurezza specifici dell'IA e i metodi di correzione evidenziati nel Secure AI Framework (SAIF).
Allinea il modello
Allinea il modello alle tue norme di sicurezza specifiche utilizzando tecniche di impostazione e ottimizzazione.
Inizia
Creare prompt più sicuri e affidabili
Sfrutta la potenza degli LLM per creare modelli di prompt più sicuri con la libreria Allineamento modello.
Ottimizza i modelli per la sicurezza
Controlla il comportamento del modello ottimizzandolo in base alle tue norme sulla sicurezza e sui contenuti.
Esaminare i prompt del modello
Crea prompt sicuri e utili attraverso miglioramenti iterativi con lo strumento di interpretabilità dell'apprendimento (LIT).
valuta il modello
Valuta i rischi dei modelli in termini di sicurezza, equità e accuratezza fattuale utilizzando le nostre indicazioni e i nostri strumenti.
Inizia
Comparatore LLM
Esegui valutazioni affiancate con LLM Comparator per valutare qualitativamente le differenze nelle risposte tra i modelli, i diversi prompt per lo stesso modello o persino le diverse ottimizzazioni di un modello.
Linee guida per la valutazione del modello
Scopri le best practice del red team e valuta il tuo modello rispetto ai benchmark accademici per valutare i danni relativi a sicurezza, equità e attendibilità.
Proteggere con le salvaguardie
Filtra gli input e gli output dell'applicazione e proteggi gli utenti da risultati indesiderati.
Inizia
Testo SynthID
Uno strumento per il watermarking e il rilevamento del testo generato dal modello.
ShieldGemma
Una serie di classificatori di sicurezza dei contenuti, basati su Gemma 2, disponibili in tre dimensioni: 2B, 9B, 27B.
Classificatori agili
Crea classificatori di sicurezza per i tuoi criteri specifici utilizzando la regolazione efficiente dei parametri (PET) con dati di addestramento relativamente ridotti
Controlla la sicurezza dell'IA
Garantisci la conformità alla sicurezza dell'IA in base ai tuoi criteri relativi ai contenuti con API e dashboard di monitoraggio.
Servizio di moderazione del testo
Rileva un elenco di attributi di sicurezza, tra cui varie categorie e argomenti potenzialmente dannosi che potrebbero essere considerati sensibili, con questa API Google Cloud Natural Language disponibile gratuitamente al di sotto di un determinato limite di utilizzo.
API Perspective
Identifica i commenti "tossici" con questa API senza costi di Google Jigsaw per mitigare la tossicità online e garantire un dialogo sano.