책임감 있는 생성형 AI 툴킷
개방형 AI 모델을 책임감 있게 설계, 빌드, 평가하기 위한 도구 및 안내
책임감 있는 접근 방식 설계
애플리케이션의 잠재적 위험을 선제적으로 식별하고 시스템 수준의 접근 방식을 정의하여 사용자를 위해 안전하고 책임감 있는 애플리케이션을 빌드하세요.
시작하기
시스템 수준 정책 정의
애플리케이션에서 생성해야 하는 콘텐츠 유형과 생성해서는 안 되는 콘텐츠 유형을 결정합니다.
안전을 고려한 디자인
기술적 및 비즈니스적 절충점을 고려하여 위험 완화 기법을 구현하기 위한 전반적인 접근 방식을 정의합니다.
투명성 확보
모델 카드와 같은 아티팩트로 접근 방식을 전달합니다.
안전한 AI 시스템
보안 AI 프레임워크 (SAIF)에 강조된 AI 관련 보안 위험 및 해결 방법을 고려합니다.
모델 정렬
프롬프트 및 조정 기술을 사용하여 모델을 특정 안전 정책에 맞춥니다.
시작하기
안전을 위한 모델 조정
안전 및 콘텐츠 정책에 맞게 모델을 조정하여 모델 동작을 제어합니다.
모델 프롬프트 조사
학습 해석 가능성 도구(LIT)를 사용하여 반복적인 개선을 통해 안전하고 유용한 프롬프트를 만듭니다.
모델 평가
Google의 안내와 도구를 사용하여 안전성, 공정성, 사실 정확성에 관한 모델의 위험을 평가합니다.
시작하기
LLM 비교기
LLM 비교 도구를 사용하여 모델 간의 응답 차이, 동일한 모델의 여러 프롬프트 또는 모델의 여러 조정까지 정성적으로 평가하는 나란히 평가를 실행합니다.
모델 평가 가이드라인
레드팀 권장사항에 대해 알아보고 학술적 벤치마크를 기준으로 모델을 평가하여 안전, 공정성, 사실성과 관련된 피해를 평가하세요.
보호 장치로 보호
애플리케이션의 입력과 출력을 필터링하고 바람직하지 않은 결과로부터 사용자를 보호합니다.
시작하기
SynthID 텍스트
워터마킹 및 모델에서 생성한 텍스트를 감지하는 도구입니다.
ShieldGemma
Gemma 2를 기반으로 구축된 일련의 콘텐츠 안전 분류 기준은 2B, 9B, 27B의 세 가지 크기로 제공됩니다.
민첩한 분류기
상대적으로 적은 양의 학습 데이터로 파라미터 효율적인 튜닝(PET)을 사용하여 특정 정책에 맞는 안전 분류기 만들기
AI 안전 확인
API 및 모니터링 대시보드를 사용하여 콘텐츠 정책에 대한 AI 안전 규정 준수를 보장하세요.
텍스트 검토 서비스
특정 사용량 한도 미만으로 무료로 제공되는 이 Google Cloud Natural Language API를 사용하여 유해할 수 있는 다양한 카테고리와 민감한 것으로 간주될 수 있는 주제를 포함한 안전 속성 목록을 감지합니다.
Perspective API
이 무료 Google Jigsaw API를 사용하여 '유해' 댓글을 식별하여 온라인에서 악의적인 행위를 줄이고 건전한 대화를 촉진하세요.