Gemma를 사용한 기기 내 생성

<ph type="x-smartling-placeholder">

Gemma 모델은 MediaPipe LLM 추론을 통해 온전히 기기 내에서 실행할 수 있습니다. API를 참고하세요. 이 LLM Inference API는 대규모 언어 모델의 래퍼 역할을 하며 정보와 같은 일반적인 텍스트-텍스트 생성 작업을 위해 온디바이스에서 Gemma를 모델링합니다. 검색, 이메일 초안 작성 및 문서 요약이 포함됩니다.

MediaPipe와 함께 LLM Inference API 사용해 보기 Studio의 경우 온디바이스 모델을 평가하고 맞춤설정하기 위한 웹 기반 애플리케이션입니다.

LLM Inference API는 다음 플랫폼에서 사용할 수 있습니다.

자세한 내용은 MediaPipe LLM 추론을 참조하세요. 문서를 참조하세요.