Gemma 3 모델 개요

Gemma는 생성형 인공지능 (AI) 모델 제품군으로, 질문 답변, 요약, 추론을 비롯한 다양한 생성 작업에 사용할 수 있습니다. Gemma 모델은 개방형 가중치로 제공되며 책임감 있는 상업적 사용을 허용하므로 자체 프로젝트 및 애플리케이션에서 모델을 조정하고 배포할 수 있습니다.

Gemma 3 출시에는 다음과 같은 주요 기능이 포함되어 있습니다. AI Studio에서 사용해 보세요.

KaggleHugging Face에서 Gemma 3 모델을 다운로드할 수 있습니다. Gemma 3에 관한 자세한 기술적 내용은 모델 카드기술 보고서를 참고하세요. 이전 버전의 Gemma 핵심 모델도 다운로드할 수 있습니다. 자세한 내용은 이전 Gemma 모델을 참고하세요.

Gemma 3 사용해 보기 Kaggle에서 사용하기 Hugging Face에서 사용하기

멀티모달 이미지 및 텍스트 입력

이미지 및 텍스트 데이터를 처리할 수 있는 Gemma 3를 사용하면 더 복잡한 분석 및 생성 작업을 처리할 수 있습니다. 이 모델을 사용하여 이미지 데이터를 해석하고, 객체를 식별하고, 텍스트 데이터를 추출하고, 텍스트 출력 작업에 관한 다양한 시각적 입력을 완료할 수 있습니다. 레고 시작하기

토큰 컨텍스트 윈도우 128,000개

Gemma 3 모델은 최대 128,000개 토큰의 프롬프트 입력을 처리할 수 있으며, 이는 이전 Gemma 모델보다 16배 더 큰 컨텍스트 창입니다. 토큰이 많으면 단일 프롬프트에서 여러 페이지의 기사, 더 큰 단일 기사 또는 수백 개의 이미지를 처리할 수 있습니다.

광범위한 언어 지원

140개 이상의 언어를 기본적으로 지원하므로 모국어로 작업할 수 있습니다. Gemma 3는 이전 Gemma 버전에 비해 더 많은 언어를 지원하도록 학습되어 고객이 사용하는 언어로 더 많은 시각적 및 텍스트 작업을 처리할 수 있습니다. 레고 시작하기

매개변수 크기 및 정량화

Gemma 3 모델은 32비트의 전체 정밀도에서 4비트의 최저 정밀도까지 5가지 정밀도 수준에서 4가지 매개변수 크기로 제공됩니다. 다양한 크기와 정밀도는 AI 애플리케이션의 일련의 절충점을 나타냅니다. 매개변수와 비트 수가 더 많은 모델 (정밀도가 더 높음)은 일반적으로 성능이 더 우수하지만 처리 주기, 메모리 비용, 전력 소모 측면에서 실행 비용이 더 높습니다. 매개변수와 비트 수가 적은 모델 (정확도가 낮음)은 기능이 적지만 AI 작업에는 충분할 수 있습니다. 다음 표에는 Gemma 3 모델 버전의 각 크기로 추론을 실행하는 데 필요한 대략적인 GPU 또는 TPU 메모리 요구사항이 나와 있습니다.

매개변수 전체 32비트 BF16 (16비트) SFP8
(8비트)
Q4_0
(4비트)
INT4
(4비트)
Gemma 3 1B (텍스트 전용) 4GB 1.5GB 1.1 GB 892 MB 861 MB
Gemma 3 4B 16GB 6.4 GB 4.4 GB 3.4 GB 3.2 GB
Gemma 3 12B 48GB 20GB 12.2 GB 8.7 GB 8.2 GB
Gemma 3 27B 108 GB 46.4GB 29.1 GB 21 GB 19.9 GB

표 1. 매개변수 수와 양자화 수준 (비트 심도)에 따라 Gemma 3 모델을 로드하는 데 필요한 대략적인 GPU 또는 TPU 메모리입니다.

메모리 사용량은 실행하는 프롬프트에 필요한 총 토큰 수를 기준으로 증가합니다. 프롬프트를 처리하는 데 필요한 토큰 수가 많을수록 모델을 로드하는 데 필요한 메모리 외에도 더 많은 메모리가 필요합니다.

이전 Gemma 모델

이전 세대의 Gemma 모델을 사용할 수 있으며, 이 모델은 KaggleHugging Face에서도 사용할 수 있습니다. 이전 Gemma 모델에 관한 기술적 세부정보는 다음 모델 카드 페이지를 참고하세요.

실무 경험을 쌓을 준비가 되셨나요? Gemma 모델을 시작해 보세요.