Gemma는 Gemini 모델을 만드는 데 사용된 것과 동일한 연구 및 기술로 빌드된 경량의 최첨단 개방형 모델 제품군입니다. Google DeepMind 및 Google의 여러 팀에서 개발한 Gemma의 이름은 '보석'을 의미하는 라틴어 gemma의 이름을 딴 것입니다. Gemma 모델 가중치는 혁신, 공동작업, 인공지능 (AI)의 책임감 있는 사용을 촉진하는 개발자 도구에서 지원됩니다.
Gemma 모델은 애플리케이션과 하드웨어, 휴대기기 또는 호스팅된 서비스에서 실행할 수 있습니다. 또한 조정 기술을 사용하여 이러한 모델을 맞춤설정하여 개발자와 사용자에게 중요한 작업을 효율적으로 수행할 수 있습니다. 젬마 모델은 Gemini 제품군에서 영감을 얻고 기술적 계보를 끌어내며 AI 개발 커뮤니티가 확장하고 발전할 수 있도록 만들어졌습니다.
텍스트 생성에 Gemma 모델을 사용할 수 있지만 특정 작업 수행에 특화되어 있도록 이러한 모델을 조정할 수도 있습니다. 조정된 Gemma 모델은 개발자와 사용자에게 보다 타겟팅된 효율적인 생성형 AI 솔루션을 제공할 수 있습니다. LoRA 조정에 관한 가이드를 확인하고 사용해 보세요 여러분이 Gemma와 함께 어떤 앱을 만들어낼지 정말 기대됩니다.
이 개발자 문서에서는 사용 가능한 Gemma 모델과 특정 애플리케이션에 맞게 이를 적용하고 조정하는 방법에 관한 개발 가이드를 간략하게 설명합니다.
모델 크기 및 기능
Gemma 모델은 사용 가능한 컴퓨팅 리소스, 필요한 기능, 실행할 위치에 따라 생성형 AI 솔루션을 빌드할 수 있도록 여러 크기로 제공됩니다. 어디서부터 시작해야 할지 잘 모르겠다면 리소스 요구사항이 더 낮고 모델 배포 위치를 더 유연하게 설정할 수 있도록 매개변수 2B 크기를 사용해 보세요.
매개변수 크기 | 입력 | 출력 | 조정된 버전 | 의도된 플랫폼 |
---|---|---|---|---|
20억 | 텍스트 | 텍스트 |
|
휴대기기 및 노트북 |
7B | 텍스트 | 텍스트 |
|
데스크톱 컴퓨터 및 소형 서버 |
Keras 3.0 멀티 지원 기능을 사용하면 TensorFlow, JAX, PyTorch에서 모델을 실행하거나 JAX(FLAX 프레임워크 기반) 및 PyTorch의 기본 구현을 사용할 수 있습니다.
Kaggle 모델에서 Gemma 모델을 다운로드할 수 있습니다.
조정된 모델
추가 학습을 통해 Gemma 모델의 동작을 수정하여 특정 태스크에서 모델 성능이 향상되도록 할 수 있습니다. 이 프로세스를 모델 조정이라고 합니다. 이 기법을 사용하면 모델의 대상 작업 수행 능력이 향상되지만 다른 작업에서는 모델 성능이 저하될 수 있습니다. 이러한 이유로 Gemma 모델은 명령 조정 버전과 사전 학습된 버전에서 모두 사용할 수 있습니다.
- 사전 학습된 모델 - 이 버전의 모델은 Gemma 핵심 데이터 학습 세트 이외의 특정 작업이나 지침에 대해 학습되지 않습니다. 미세 조정을 수행하지 않고 이러한 모델을 배포해서는 안 됩니다.
- 명령어 조정 - 이 모델 버전은 인간의 언어 상호작용을 통해 학습되며 채팅 봇과 유사하게 대화 입력에 응답할 수 있습니다.
시작하기
Gemma를 사용한 솔루션 빌드를 시작하려면 다음 가이드를 확인하세요.
- Gemma로 텍스트 생성 - 모델을 사용하여 기본 텍스트 생성 예를 빌드합니다.
- LoRA 조정으로 Gemma 조정 - Gemma 2B 모델에 LoRA 세부 조정을 수행합니다.
- 분산 학습을 사용하여 Gemma 모델 조정 - Keras를 JAX 백엔드와 함께 사용하여 LoRA 및 모델 동시 로드로 Gemma 7B 모델을 미세 조정합니다.
- PyTorch의 Gemma - PyTorch를 사용하여 Gemma로 텍스트를 생성합니다.
- 프로덕션에 Gemma 배포 - Vertex AI를 사용하여 Gemma를 프로덕션에 배포합니다.