컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
개방형 AI 모델을 책임감 있게 설계, 빌드, 평가하기 위한 도구 및 안내
시작하기
시스템 수준 정책 정의
애플리케이션에서 생성해야 하는 콘텐츠 유형과 생성해서는 안 되는 콘텐츠 유형을 결정합니다.
안전을 고려한 디자인
기술 및 비즈니스의 절충안을 고려하여 위험 완화 기법을 구현하기 위한 전반적인 접근 방식을 정의합니다.
투명성 확보
모델 카드와 같은 아티팩트로 접근 방식을 전달합니다.
안전한 AI 시스템
보안 AI 프레임워크 (SAIF)에 강조 표시된 AI 관련 보안 위험 및 해결 방법을 고려합니다.
시작하기
모델 프롬프트 조사
해석 가능성 학습 도구 (LIT)로 반복적인 개선을 통해 안전하고 유용한 프롬프트를 작성하세요.
안전을 위한 모델 조정
안전 및 콘텐츠 정책에 맞게 모델을 조정하여 모델 동작을 제어합니다.
시작하기
LLM 비교기
LLM 비교 도구로 나란히 평가를 수행하여 모델 간 응답의 차이, 동일한 모델에 대한 다른 프롬프트 또는 모델의 다른 조정도 정성적으로 평가합니다.
모델 평가 가이드라인
레드팀 권장사항에 대해 알아보고 학술적 벤치마크를 기준으로 모델을 평가하여 안전, 공정성, 사실성과 관련된 피해를 평가하세요.
시작하기
ShieldGemma
Gemma 2를 기반으로 구축된 일련의 콘텐츠 안전 분류 기준은 2B, 9B, 27B의 세 가지 크기로 제공됩니다.
민첩한 분류기
학습 데이터가 비교적 적은 매개변수 효율 조정 (PET)을 사용하여 특정 정책에 대한 안전 분류 기준 생성
텍스트 검토 서비스
특정 사용량 한도 내에서 무료로 제공되는 이 Google Cloud Natural Language API를 사용하여 잠재적으로 위험한 카테고리와 민감한 것으로 간주될 수 있는 여러 가지 안전 속성 목록을 감지합니다.
Perspective API
'유해' 식별 이 무료 Google Jigsaw API를 사용하여 온라인상의 악의적인 활동을 줄이고 건전한 대화를 보장합니다.
[{
"type": "thumb-down",
"id": "missingTheInformationINeed",
"label":"필요한 정보가 없음"
},{
"type": "thumb-down",
"id": "tooComplicatedTooManySteps",
"label":"너무 복잡함/단계 수가 너무 많음"
},{
"type": "thumb-down",
"id": "outOfDate",
"label":"오래됨"
},{
"type": "thumb-down",
"id": "translationIssue",
"label":"번역 문제"
},{
"type": "thumb-down",
"id": "samplesCodeIssue",
"label":"샘플/코드 문제"
},{
"type": "thumb-down",
"id": "otherDown",
"label":"기타"
}]
[{
"type": "thumb-up",
"id": "easyToUnderstand",
"label":"이해하기 쉬움"
},{
"type": "thumb-up",
"id": "solvedMyProblem",
"label":"문제가 해결됨"
},{
"type": "thumb-up",
"id": "otherUp",
"label":"기타"
}]
{}
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],[],[],[]]