책임감 있는 생성형 AI 툴킷
개방형 AI 모델을 책임감 있게 설계, 빌드, 평가하는 데 도움이 되는 도구와 안내
책임감 있는 접근 방식 설계
애플리케이션의 잠재적 위험을 선제적으로 식별하고 시스템 수준의 접근 방식을 정의하여 사용자를 위해 안전하고 책임감 있는 애플리케이션을 빌드하세요.
시작하기
안전을 고려한 디자인
기술적 및 비즈니스적 절충점을 고려하여 위험 완화 기법을 구현하기 위한 전반적인 접근 방식을 정의합니다.
투명성 확보
모델 카드와 같은 아티팩트를 사용하여 접근 방식을 전달합니다.
안전한 AI 시스템
보안 AI 프레임워크 (SAIF)에서 강조 표시된 AI 관련 보안 위험 및 해결 방법을 고려하세요.
모델 정렬
프롬프트 및 조정 기법을 사용하여 모델을 특정 안전 정책에 맞게 조정합니다.
시작하기
안전을 위한 모델 조정
안전 및 콘텐츠 정책에 맞게 모델을 조정하여 모델 동작을 제어합니다.
모델 프롬프트 조사
학습 해석 가능성 도구 (LIT)를 사용하여 반복적인 개선을 통해 안전하고 유용한 프롬프트를 만듭니다.
모델 평가
Google의 안내 및 도구를 사용하여 안전성, 공정성, 사실 정확성에 대한 모델 위험을 평가하세요.
시작하기
LLM 비교기
LLM 비교 도구를 사용하여 모델 간의 응답 차이, 동일한 모델의 여러 프롬프트 또는 모델의 여러 조정까지 정성적으로 평가하는 나란히 평가를 실행합니다.
모델 평가 가이드라인
레드팀 작업 권장사항을 알아보고 학술적 벤치마크를 기준으로 모델을 평가하여 안전성, 공정성, 사실성에 관한 피해를 평가하세요.
안전 장치로 보호
애플리케이션의 입력과 출력을 필터링하고 원치 않는 결과로부터 사용자를 보호합니다.
시작하기
SynthID 텍스트
모델에서 생성된 텍스트에 워터마크를 지정하고 이를 감지하는 도구입니다.
ShieldGemma
Gemma 2를 기반으로 하며 2B, 9B, 27B의 세 가지 크기로 제공되는 일련의 콘텐츠 안전 분류기입니다.
민첩한 분류 기준
상대적으로 적은 양의 학습 데이터로 파라미터 효율적인 튜닝 (PET)을 사용하여 특정 정책에 맞는 안전 분류기 만들기
AI 안전 확인
API 및 모니터링 대시보드를 사용하여 콘텐츠 정책에 대한 AI 안전 규정 준수를 보장하세요.
텍스트 검토 서비스
특정 사용량 한도 미만으로 무료로 제공되는 이 Google Cloud Natural Language API를 사용하여 유해할 수 있는 다양한 카테고리와 민감한 것으로 간주될 수 있는 주제를 포함한 안전 속성 목록을 감지합니다.
Perspective API
이 무료 Google Jigsaw API를 사용하여 '유해' 댓글을 식별하여 온라인에서 악의적인 행위를 줄이고 건전한 대화를 촉진하세요.