책임감 있는 생성형 AI 툴킷
개방형 AI 모델을 책임감 있게 설계, 빌드, 평가하는 데 도움이 되는 도구와 안내
책임감 있는 접근 방식 설계
애플리케이션의 잠재적 위험을 선제적으로 식별하고 시스템 수준의 접근 방식을 정의하여 사용자를 위해 안전하고 책임감 있는 애플리케이션을 빌드하세요.
모델 정렬
프롬프트 및 조정 기법을 사용하여 모델을 특정 안전 정책에 맞게 조정합니다.
시작하기
안전을 위한 모델 조정
안전 및 콘텐츠 정책에 맞게 모델을 조정하여 모델 동작을 제어합니다.
모델 프롬프트 조사
해석 가능성 학습 도구 (LIT)로 반복적인 개선을 통해 안전하고 유용한 프롬프트를 작성하세요.
모델 평가
Google의 안내 및 도구를 사용하여 안전성, 공정성, 사실 정확성에 대한 모델 위험을 평가하세요.
시작하기
LLM 비교기
LLM 비교 도구를 사용하여 모델 간의 응답 차이, 동일한 모델의 여러 프롬프트 또는 모델의 여러 조정까지 정성적으로 평가하는 나란히 평가를 실행합니다.
모델 평가 가이드라인
레드팀 작업 권장사항을 알아보고 학술적 벤치마크를 기준으로 모델을 평가하여 안전성, 공정성, 사실성에 관한 피해를 평가하세요.
보호 장치로 보호
애플리케이션의 입력과 출력을 필터링하고 원치 않는 결과로부터 사용자를 보호합니다.
시작하기
SynthID 텍스트
워터마킹 및 모델에서 생성한 텍스트를 감지하는 도구입니다.
ShieldGemma
Gemma 2를 기반으로 하며 2B, 9B, 27B의 세 가지 크기로 제공되는 일련의 콘텐츠 안전 분류기입니다.
민첩한 분류 기준
학습 데이터가 비교적 적은 매개변수 효율 조정 (PET)을 사용하여 특정 정책에 대한 안전 분류 기준 생성
AI 안전 확인
API 및 모니터링 대시보드를 사용하여 콘텐츠 정책에 대한 AI 안전 규정 준수를 보장하세요.
텍스트 검토 서비스
특정 사용량 한도 이하에서 무료로 제공되는 이 Google Cloud Natural Language API를 사용하여 유해할 수 있는 다양한 카테고리와 민감한 것으로 간주될 수 있는 주제를 포함한 안전 속성 목록을 감지합니다.
Perspective API
이 무료 Google Jigsaw API를 사용하여 '유해' 댓글을 식별하여 온라인에서 악의적인 행위를 줄이고 건전한 대화를 촉진하세요.