책임감 있는 생성형 AI 툴킷
개방형 AI 모델을 책임감 있게 설계, 빌드, 평가하기 위한 도구 및 안내
책임감 있는 접근 방식 설계
애플리케이션의 잠재적 위험을 사전에 식별하고 시스템 수준의 접근 방식을 정의하여 사용자를 위한 안전하고 책임감 있는 애플리케이션을 빌드하세요.
모델 정렬
프롬프트 및 조정 기술을 사용하여 모델을 특정 안전 정책에 맞춥니다.
시작하기
안전을 위한 모델 조정
안전 및 콘텐츠 정책에 맞게 모델을 조정하여 모델 동작을 제어합니다.
모델 평가
Google의 안내와 도구를 사용하여 안전성, 공정성, 사실 정확성에 관한 모델의 위험을 평가합니다.
시작하기
LLM 비교기
LLM 비교 도구로 나란히 평가를 수행하여 모델 간 응답의 차이, 동일한 모델에 대한 다른 프롬프트 또는 모델의 다른 조정도 정성적으로 평가합니다.
모델 평가 가이드라인
레드팀 권장사항에 대해 알아보고 학술적 벤치마크를 기준으로 모델을 평가하여 안전, 공정성, 사실성과 관련된 피해를 평가하세요.
보호 장치로 보호
애플리케이션의 입력과 출력을 필터링하고 원치 않는 결과로부터 사용자를 보호합니다.
시작하기
ShieldGemma
Gemma 2를 기반으로 구축된 일련의 콘텐츠 안전 분류 기준은 2B, 9B, 27B의 세 가지 크기로 제공됩니다.
민첩한 분류기
학습 데이터가 비교적 적은 매개변수 효율 조정 (PET)을 사용하여 특정 정책에 대한 안전 분류 기준 생성
텍스트 검토 서비스
특정 사용량 한도 내에서 무료로 제공되는 이 Google Cloud Natural Language API를 사용하여 잠재적으로 위험한 카테고리와 민감한 것으로 간주될 수 있는 여러 가지 안전 속성 목록을 감지합니다.
Perspective API
'유해' 식별 이 무료 Google Jigsaw API를 사용하여 온라인상의 악의적인 활동을 줄이고 건전한 대화를 보장합니다.