ShieldGemma

ShieldGemma는 텍스트 프롬프트의 안전성을 평가하기 위한 일련의 명령 조정 모델입니다. 정의된 안전 정책 세트에 대해 입력 및 텍스트 출력 응답을 전송합니다. 이때 생성형 AI 애플리케이션의 대규모 구현의 일환으로 이 모델을 생성형 AI 애플리케이션이 안전 정책을 위반하지 않도록 평가하고 예방합니다.

ShieldGemma 모델은 2B, 9B에서 Gemma 2를 기반으로 하며 270억 개 매개변수 크기. 모델을 미세 조정할 수 있도록 열린 가중치가 제공됩니다. 맞춤설정할 수 있습니다 이 모델 세트와 구현 코드 예에는 구성요소 책임감 있는 생성형 AI 툴킷.

  • 정의된 안전 정책을 기준으로 프롬프트 입력 및 출력 응답의 안전성을 평가합니다.
  • ShieldGemma 모델은 개방형 가중치로 제공되며 특정 사용 사례에 맞게 미세 조정할 수 있습니다.

자세히 알아보기

ShieldGemma의 모델 카드에는 모델 구현, 평가, 모델 사용, 제한사항 등에 대한 자세한 정보가 포함되어 있습니다.
Kaggle의 ShieldGemma에 관한 코드, Colab 노트북, 정보, 토론 더보기
ShieldGemma를 사용하여 텍스트 프롬프트 입력 및 출력을 평가하는 실제 예시를 실행합니다.