Инструменты и рекомендации для ответственного проектирования, создания и оценки открытых моделей ИИ.
Ответственный дизайн приложения
Определите правила поведения модели, создайте безопасное и подотчетное приложение и поддерживайте прозрачное общение с пользователями.
Безопасное выравнивание
Откройте для себя методы оперативной отладки и рекомендации по точной настройке и RLHF для согласования моделей ИИ с политиками безопасности.
Оценка модели
Найдите рекомендации и данные для проведения надежной оценки модели на предмет безопасности, справедливости и достоверности с помощью LLM Comparator.
Гарантии
Развертывайте классификаторы безопасности, используя готовые решения, или создавайте свои собственные с помощью пошаговых руководств.
Создайте ответственный подход
Заблаговременно выявите потенциальные риски вашего приложения и определите подход на уровне системы для создания безопасных и ответственных приложений для пользователей.
Начать
Определение политик системного уровня
Определите, какой тип контента должно и не должно создавать ваше приложение.
Оцените риски модели с точки зрения безопасности, справедливости и фактической точности, используя наши рекомендации и инструменты.
Начать
LLM Компаратор
Проводите параллельные оценки с помощью LLM Comparator, чтобы качественно оценить различия в ответах между моделями, разные подсказки для одной и той же модели или даже разные настройки модели.
Узнайте о лучших практиках создания красной команды и оцените свою модель по академическим критериям, чтобы оценить вред, связанный с безопасностью, справедливостью и фактологией.
Создавайте классификаторы безопасности для ваших конкретных политик, используя эффективную настройку параметров (PET) с относительно небольшим количеством обучающих данных.
Определите список атрибутов безопасности, включая различные потенциально опасные категории и темы, которые могут считаться конфиденциальными, с помощью этого API Google Cloud Natural Language, доступного бесплатно при достижении определенного лимита использования.