상업적 사용을 허용하므로 자체 프로젝트 및 애플리케이션에서 모델을 조정하고 배포할 수 있습니다.
Gemma는 생성형 인공지능 (AI) 모델 제품군으로, 질문 답변, 요약, 추론을 비롯한 다양한 생성 작업에 사용할 수 있습니다. Gemma 모델은 개방형 가중치로 제공되며 책임감 있는Gemma 3 출시에는 다음과 같은 주요 기능이 포함되어 있습니다. AI Studio에서 사용해 보세요.
- 이미지 및 텍스트 입력: 멀티모달 기능을 사용하면 이미지와 텍스트를 입력하여 시각적 데이터를 이해하고 분석할 수 있습니다. 빌드 시작하기
- 128K 토큰 컨텍스트: 더 많은 데이터를 분석하고 더 복잡한 문제를 해결하기 위한 16배 더 큰 입력 컨텍스트입니다.
- 다양한 언어 지원: 140개가 넘는 언어를 지원하여 사용 중인 언어로 작업하거나 AI 애플리케이션의 언어 기능을 확장하세요. 빌드 시작하기
- 개발자 친화적인 모델 크기: 태스크 및 컴퓨팅 리소스에 가장 적합한 모델 크기 (1B, 4B, 12B, 27B)와 정밀도 수준을 선택합니다.
Kaggle 및 Hugging Face에서 Gemma 3 모델을 다운로드할 수 있습니다. Gemma 3에 관한 자세한 기술적 내용은 모델 카드 및 기술 보고서를 참고하세요. 이전 버전의 Gemma 핵심 모델도 다운로드할 수 있습니다. 자세한 내용은 이전 Gemma 모델을 참고하세요.
Gemma 3 사용해 보기 Kaggle에서 사용하기 Hugging Face에서 사용하기
멀티모달 이미지 및 텍스트 입력
이미지 및 텍스트 데이터를 처리할 수 있는 Gemma 3를 사용하면 더 복잡한 분석 및 생성 작업을 처리할 수 있습니다. 이 모델을 사용하여 이미지 데이터를 해석하고, 객체를 식별하고, 텍스트 데이터를 추출하고, 텍스트 출력 작업에 관한 다양한 시각적 입력을 완료할 수 있습니다. 레고 시작하기
토큰 컨텍스트 윈도우 128,000개
Gemma 3 모델은 최대 128,000개 토큰의 프롬프트 입력을 처리할 수 있으며, 이는 이전 Gemma 모델보다 16배 더 큰 컨텍스트 창입니다. 토큰이 많으면 단일 프롬프트에서 여러 페이지의 기사, 더 큰 단일 기사 또는 수백 개의 이미지를 처리할 수 있습니다.
광범위한 언어 지원
140개 이상의 언어를 기본적으로 지원하므로 모국어로 작업할 수 있습니다. Gemma 3는 이전 Gemma 버전에 비해 더 많은 언어를 지원하도록 학습되어 고객이 사용하는 언어로 더 많은 시각적 및 텍스트 작업을 처리할 수 있습니다. 레고 시작하기
매개변수 크기 및 정량화
Gemma 3 모델은 32비트의 전체 정밀도에서 4비트의 최저 정밀도까지 5가지 정밀도 수준에서 4가지 매개변수 크기로 제공됩니다. 다양한 크기와 정밀도는 AI 애플리케이션의 일련의 절충점을 나타냅니다. 매개변수와 비트 수가 더 많은 모델 (정밀도가 더 높음)은 일반적으로 성능이 더 우수하지만 처리 주기, 메모리 비용, 전력 소모 측면에서 실행 비용이 더 높습니다. 매개변수와 비트 수가 적은 모델 (정확도가 낮음)은 기능이 적지만 AI 작업에는 충분할 수 있습니다. 다음 표에는 Gemma 3 모델 버전의 각 크기로 추론을 실행하는 데 필요한 대략적인 GPU 또는 TPU 메모리 요구사항이 나와 있습니다.
매개변수 | 전체 32비트 | BF16 (16비트) | SFP8 (8비트) |
Q4_0 (4비트) |
INT4 (4비트) |
---|---|---|---|---|---|
Gemma 3 1B (텍스트 전용) | 4GB | 1.5GB | 1.1 GB | 892 MB | 861 MB |
Gemma 3 4B | 16GB | 6.4 GB | 4.4 GB | 3.4 GB | 3.2 GB |
Gemma 3 12B | 48GB | 20GB | 12.2 GB | 8.7 GB | 8.2 GB |
Gemma 3 27B | 108 GB | 46.4GB | 29.1 GB | 21 GB | 19.9 GB |
표 1. 매개변수 수와 양자화 수준 (비트 심도)에 따라 Gemma 3 모델을 로드하는 데 필요한 대략적인 GPU 또는 TPU 메모리입니다.
메모리 사용량은 실행하는 프롬프트에 필요한 총 토큰 수를 기준으로 증가합니다. 프롬프트를 처리하는 데 필요한 토큰 수가 많을수록 모델을 로드하는 데 필요한 메모리 외에도 더 많은 메모리가 필요합니다.
이전 Gemma 모델
이전 세대의 Gemma 모델을 사용할 수 있으며, 이 모델은 Kaggle 및 Hugging Face에서도 사용할 수 있습니다. 이전 Gemma 모델에 관한 기술적 세부정보는 다음 모델 카드 페이지를 참고하세요.
실무 경험을 쌓을 준비가 되셨나요? Gemma 모델을 시작해 보세요.