Kit de ferramentas de IA generativa responsável
Ferramentas e orientações para projetar, criar e avaliar modelos de IA aberta com responsabilidade.
Design responsável de aplicativos
Defina regras de comportamento do modelo, crie um aplicativo seguro e responsável e mantenha uma comunicação transparente com os usuários.
Alinhamento de segurança
Conheça técnicas de depuração de comandos e orientações para fazer ajustes detalhados e usar RLHF para alinhar os modelos de IA às políticas de segurança.
Avaliação do modelo
Encontre orientações e dados para realizar uma avaliação robusta de modelo em relação à segurança, imparcialidade e factualidade com o Comparador de LLM.
de saída
Implante classificadores de segurança usando soluções prontas para uso ou crie seus próprios classificadores com tutoriais passo a passo.
Projete uma abordagem responsável
Identifique de modo proativo possíveis riscos do aplicativo e defina uma abordagem no nível do sistema para criar aplicativos seguros e responsáveis para os usuários.
Primeiros passos
Definir políticas no nível do sistema
Determine o tipo de conteúdo que seu aplicativo deve ou não gerar.
Design com foco na segurança
Defina a abordagem geral para implementar técnicas de redução de riscos, considerando os prós e os contras.
Seja transparente
Comunique sua abordagem com artefatos como cards de modelo.
Sistemas de IA seguros
Considere os riscos de segurança e os métodos de correção específicos da IA destacados no framework de IA segura (SAIF).
Alinhe o modelo
Alinhe seu modelo com suas políticas de segurança específicas usando técnicas de comandos e ajustes.
Primeiros passos
Investigar os comandos do modelo
Crie comandos seguros e úteis com a melhoria iterativa com a ferramenta de aprendizado de interpretabilidade (LIT).
Ajustar modelos para segurança
Controle o comportamento do modelo ajustando-o de acordo com suas políticas de segurança e conteúdo.
Avalie o modelo
Use nossas orientações e ferramentas para avaliar os riscos de segurança, imparcialidade e acurácia factual do modelo.
Primeiros passos
Comparador de LLM
Faça avaliações lado a lado com o Comparador de LLM para avaliar qualitativamente diferenças nas respostas entre modelos, diferentes comandos para o mesmo modelo ou até mesmo ajustes distintos de um modelo.
Diretrizes de avaliação de modelos
Saiba mais sobre as práticas recomendadas de red teaming e avalie seu modelo em relação a comparativos acadêmicos para avaliar danos relacionados à segurança, imparcialidade e factualidade.
Proteja com proteções
Filtre as entradas e saídas do aplicativo e proteja os usuários contra resultados indesejados.
Primeiros passos
ShieldGemma
Uma série de classificadores de segurança de conteúdo criados no Gemma 2 e disponíveis em três tamanhos: 2B, 9B e 27B.
Classificadores Agile
Crie classificadores de segurança para suas políticas específicas usando o ajuste eficiente de parâmetros (PET, na sigla em inglês) com relativamente poucos dados de treinamento
Serviço de moderação de texto
Detecta uma lista de atributos de segurança, incluindo várias categorias e temas potencialmente nocivos que podem ser considerados sensíveis por essa API Google Cloud Natural Language, disponível sem custo financeiro abaixo de um determinado limite de uso.
API Perspective
Identificar conteúdo "tóxico" com essa API sem custo financeiro do Google Jigsaw para mitigar a toxicidade on-line e garantir um diálogo saudável.