Toolkit para IA generativa responsável
Ferramentas e orientações para projetar, desenvolver e avaliar modelos abertos de IA com responsabilidade.
Design responsável de aplicativos
Defina regras para o comportamento do modelo, crie um aplicativo seguro e responsável e mantenha uma comunicação transparente com os usuários.
Alinhamento de segurança
Descubra técnicas de depuração imediata e orientações para ajustes e RLHF para alinhar modelos de IA às políticas de segurança.
Avaliação do modelo
Encontre orientações e dados para realizar uma avaliação robusta do modelo de segurança, imparcialidade e veracidade com o Comparador de LLM.
de saída
Implante classificadores de segurança usando soluções prontas para uso ou crie as suas próprias com tutoriais passo a passo.
Projetar uma abordagem responsável
Identifique proativamente os possíveis riscos do seu aplicativo e defina uma abordagem no nível do sistema para criar aplicativos seguros e responsáveis para os usuários.
Primeiros passos
Definir políticas no nível do sistema
Determine que tipo de conteúdo seu aplicativo deve e não deve gerar.
Design com foco na segurança
Defina sua abordagem geral para implementar técnicas de redução de riscos, considerando as compensações técnicas e comerciais.
Seja transparente
Comunique sua abordagem com artefatos como cards de modelo.
Sistemas de IA seguros
Considere os riscos de segurança específicos da IA e os métodos de correção destacados no framework de IA segura (SAIF, na sigla em inglês).
Alinhar o modelo
Alinhe seu modelo às suas políticas de segurança específicas usando técnicas de solicitação e ajuste.
Primeiros passos
Crie avisos mais seguros e robustos
Use o poder dos LLMs para criar modelos de comandos mais seguros com a biblioteca Model alinhamento.
Ajustar modelos para segurança
Controle o comportamento do modelo ajustando-o para que ele se alinhe às suas políticas de segurança e conteúdo.
Investigar comandos de modelo
Crie comandos seguros e úteis com a melhoria iterativa com a ferramenta de aprendizado de interpretabilidade (LIT).
Avalie o modelo
Use nossas orientações e ferramentas para avaliar os riscos de segurança, imparcialidade e acurácia factual do modelo.
Primeiros passos
Comparador de LLM
Faça avaliações lado a lado com o Comparador de LLM para avaliar qualitativamente diferenças nas respostas entre modelos, diferentes comandos para o mesmo modelo ou até mesmo ajustes distintos de um modelo.
Diretrizes de avaliação de modelos
Saiba mais sobre as práticas recomendadas de red teaming e avalie seu modelo em relação a comparativos acadêmicos para avaliar danos relacionados à segurança, imparcialidade e factualidade.
Proteja com proteções
Filtre as entradas e saídas do aplicativo e proteja os usuários contra resultados indesejados.
Primeiros passos
Texto do SynthID
Uma ferramenta para marcar com marca d'água e detectar texto gerado pelo modelo.
ShieldGemma
Uma série de classificadores de segurança de conteúdo criados com o Gemma 2 e disponíveis em três tamanhos: 2B, 9B e 27B.
Classificadores ágeis
Criar classificadores de segurança para suas políticas específicas usando o ajuste eficiente de parâmetros (PET, na sigla em inglês) com dados de treinamento relativamente pequenos
Verifica a segurança da IA
Garanta conformidade com a segurança da IA em relação às suas políticas de conteúdo com APIs e painéis de planejamento.
Serviço de moderação de texto
Detecta uma lista de atributos de segurança, incluindo várias categorias e temas potencialmente nocivos que podem ser considerados sensíveis por essa API Google Cloud Natural Language, disponível sem custo financeiro abaixo de um determinado limite de uso.
API Perspective
Identifique comentários "tóxicos" com essa API gratuita do Google Jigsaw para reduzir a toxicidade on-line e garantir um diálogo saudável.