Gemma는 생성형 인공지능 (AI) 모델 제품군으로, 질문 답변, 요약, 추론을 비롯한 다양한 생성 작업에 사용할 수 있습니다. Gemma 모델은 개방형 가중치로 제공되며 책임감 있는 상업적 사용을 허용하므로 자체 프로젝트 및 애플리케이션에서 모델을 조정하고 배포할 수 있습니다.
Gemma 3 출시에는 다음과 같은 주요 기능이 포함되어 있습니다. AI Studio에서 사용해 보세요.
이미지 및 텍스트 입력: 멀티모달 기능을 사용하면 이미지와 텍스트를 입력하여 시각적 데이터를 이해하고 분석할 수 있습니다. 빌드 시작하기
128K 토큰 컨텍스트: 더 많은 데이터를 분석하고 더 복잡한 문제를 해결하기 위한 16배 더 큰 입력 컨텍스트입니다.
함수 호출: 프로그래밍 인터페이스를 사용하는 자연 언어 인터페이스를 빌드합니다.
빌드 시작하기
다양한 언어 지원: 140개가 넘는 언어를 지원하여 사용 중인 언어로 작업하거나 AI 애플리케이션의 언어 기능을 확장하세요.
빌드 시작하기
개발자 친화적인 모델 크기: 작업 및 컴퓨팅 리소스에 가장 적합한 모델 크기 (1B, 4B, 12B, 27B)와 정밀도 수준을 선택합니다.
이미지 및 텍스트 데이터를 처리할 수 있는 Gemma 3를 사용하면 더 복잡한 분석 및 생성 작업을 처리할 수 있습니다. 이 모델을 사용하여 이미지 데이터를 해석하고, 객체를 식별하고, 텍스트 데이터를 추출하고, 텍스트 출력 작업에 관한 다양한 시각적 입력을 완료할 수 있습니다.
레고 시작하기
토큰 컨텍스트 윈도우 128,000개
Gemma 3 모델은 최대 128,000개 토큰의 프롬프트 입력을 처리할 수 있으며, 이는 이전 Gemma 모델보다 16배 더 큰 컨텍스트 창입니다. 토큰이 많으면 단일 프롬프트에서 여러 페이지의 기사, 더 큰 단일 기사 또는 수백 개의 이미지를 처리할 수 있습니다.
광범위한 언어 지원
140개 이상의 언어를 기본적으로 지원하므로 모국어로 작업할 수 있습니다. Gemma 3는 이전 Gemma 버전에 비해 더 많은 언어를 지원하도록 학습되어 고객이 사용하는 언어로 더 많은 시각적 및 텍스트 작업을 처리할 수 있습니다.
레고 시작하기
함수 호출
프로그래밍 인터페이스를 위한 지능형 자연어 컨트롤을 빌드합니다. Gemma 3를 사용하면 특정 문법 및 제약 조건으로 코딩 함수를 정의할 수 있으며 모델은 이러한 함수를 호출하여 작업을 완료할 수 있습니다.
레고 시작하기
매개변수 크기 및 정량화
Gemma 3 모델은 32비트의 전체 정밀도에서 4비트의 최저 정밀도까지 5가지 정밀도 수준에서 4가지 매개변수 크기로 제공됩니다. 다양한 크기와 정밀도는 AI 애플리케이션의 일련의 절충점을 나타냅니다. 매개변수와 비트 수가 더 많은 모델 (정밀도가 더 높음)은 일반적으로 성능이 더 우수하지만 처리 주기, 메모리 비용, 전력 소모 측면에서 실행 비용이 더 듭니다. 매개변수와 비트 수가 적은 모델 (정확도가 낮음)은 기능이 적지만 AI 작업에는 충분할 수 있습니다. 다음 표에는 Gemma 3 모델 버전의 각 크기로 추론을 실행하는 데 필요한 대략적인 GPU 또는 TPU 메모리 요구사항이 나와 있습니다.
매개변수
전체 32비트
BF16 (16비트)
SFP8 (8비트)
Q4_0 (4비트)
INT4 (4비트)
Gemma 3 1B (텍스트 전용)
4GB
1.5GB
1.1 GB
892 MB
861 MB
Gemma 3 4B
16GB
6.4 GB
4.4 GB
3.4 GB
3.2 GB
Gemma 3 12B
48GB
20GB
12.2 GB
8.7 GB
8.2 GB
Gemma 3 27B
108 GB
46.4GB
29.1 GB
21 GB
19.9 GB
표 1. 매개변수 수와 양자화 수준 (비트 심도)에 따라 Gemma 3 모델을 로드하는 데 필요한 대략적인 GPU 또는 TPU 메모리입니다.
메모리 사용량은 실행하는 프롬프트에 필요한 총 토큰 수를 기준으로 증가합니다. 프롬프트를 처리하는 데 필요한 토큰 수가 많을수록 모델을 로드하는 데 필요한 메모리 외에도 더 많은 메모리가 필요합니다.
이전 Gemma 모델
이전 세대의 Gemma 모델을 사용할 수 있으며, 이 모델은 Kaggle 및 Hugging Face에서도 사용할 수 있습니다.
이전 Gemma 모델에 관한 기술적 세부정보는 다음 모델 카드 페이지를 참고하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-03-21(UTC)"],[],[],null,["# Gemma 3 model overview\n\nGemma is a family of generative artificial intelligence (AI) models and you can\nuse them in a wide variety of generation tasks, including question answering,\nsummarization, and reasoning. Gemma models are provided with open weights and\npermit responsible\n[commercial use](/gemma/terms),\nallowing you to tune and deploy them in your own projects and applications.\n\nThe Gemma 3 release includes the following key features. Try it in\n[AI Studio](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it):\n\n- [**Image and text input**](#multimodal-input): Multimodal capabilities let you input images and text to understand and analyze visual data. [Start building](/gemma/docs/core/keras_inference)\n- [**128K token context**](#128k-context): Significantly large input context for analyzing more data and solving more complex problems.\n- [**Function calling**](#function-calling): Build natural language interfaces for working with programming interfaces. [Start building](/gemma/docs/capabilities/function-calling)\n- [**Wide language support**](#multilingual): Work in your language or expand your AI application's language capabilities with support for over 140 languages. [Start building](/gemma/docs/spoken-language)\n- [**Developer friendly model sizes**](#sizes): Choose a model size (270M, 1B, 4B, 12B, 27B) and precision level that works best for your task and compute resources.\n\nYou can download Gemma 3 models from\n[Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google) and\n[Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d).\nFor more technical details on Gemma 3, see the\n[Model Card](/gemma/docs/core/model_card_3) and\n[Technical Report](https://goo.gle/Gemma3Report).\nEarlier versions of Gemma core models are also available for download. For more\ninformation, see [Previous Gemma models](#previous-models).\n\n[Try Gemma 3](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it)\n[Get it on Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google)\n[Get it on Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d)\n\nMultimodal image and text input\n-------------------------------\n\nYou can tackle complex analysis and generation tasks with Gemma 3 with its\nability to handle image and text data. You can use the model to interpret image\ndata, identify objects, extract text data, and complete many other visual input\nto text output tasks.\n[Start building](/gemma/docs/core/keras_inference)\n| **Important:** The Gemma 3 270M and 1B models are text only and *do not support\n| image input*.\n\n128K token context window\n-------------------------\n\nGemma 3 models (4B, 12B, and 27B) can handle prompt inputs up to 128K tokens, a\n16x larger context window than previous Gemma models. The large number of tokens\nmeans you can process several, multi page articles, larger single articles, or\nhundreds of images in a single prompt.\n| **Important:** The Gemma 3 270M and 1B models can process up to 32k tokens.\n\nWide language support\n---------------------\n\nWork in your own language with built-in support for over 140 languages. Gemma 3\nis trained to support a large number of languages compared to previous Gemma\nversions, letting you take on more visual and text tasks in the languages your\ncustomers use.\n[Start building](/gemma/docs/spoken-language)\n\nFunction calling\n----------------\n\nBuild intelligent, natural language controls for programming interfaces. Gemma\n3 lets you define coding functions with specific syntax and constraints, and\nthe model can call these functions to complete tasks.\n[Start building](/gemma/docs/capabilities/function-calling)\n\nParameter sizes and quantization\n--------------------------------\n\nGemma 3 models are available in 5 parameter sizes: 270M, 1B, 4B, 12B, and 27B.\nThe models can be used with their default precision (16-bit) or with a lower\nprecision using quantization. The different sizes and precisions represent a set\nof trade-offs for your AI application. Models with higher parameters and bit\ncounts (higher precision) are generally more capable, but are more expensive to\nrun in terms of processing cycles, memory cost and power consumption. Models\nwith lower parameters and bit counts (lower precision) have less capabilities,\nbut may be sufficient for your AI task.\n\nFor all Gemma 3 models, [Quantization-Aware Trained](https://developers.googleblog.com/en/gemma-3-quantized-aware-trained-state-of-the-art-ai-to-consumer-gpus/)\ncheckpoints are provided, which allow quantizing (reducing the precision), while\npreserving high-quality.\n\nThe following table details the approximate GPU or TPU memory requirements for\nrunning inference with each size of the Gemma 3 model versions. Note that the\nnumbers may changed based on inference tool.\n\n| **Parameters** | **BF16 (16-bit)** | **SFP8 (8-bit)** | **Q4_0 (4-bit)** |\n|----------------------------|-------------------|------------------|------------------|\n| Gemma 3 270M (*text only*) | 400 MB | 297 MB | 240 MB |\n| Gemma 3 1B (*text only*) | 1.5 GB | 1.1 GB | 892 MB |\n| Gemma 3 4B | 6.4 GB | 4.4 GB | 3.4 GB |\n| Gemma 3 12B | 20 GB | 12.2 GB | 8.7 GB |\n| Gemma 3 27B | 46.4 GB | 29.1 GB | 21 GB |\n\n**Table 1.** Approximate GPU or TPU memory required to load Gemma 3 models\nbased on parameter count and quantization level.\n| **Caution:** These estimates only include the memory required to load the models. They don't include the additional memory required for the prompt tokens or supporting software.\n\nMemory consumption increases based on the total number of tokens required for\nthe prompt you run. The larger the number of tokens required to process your\nprompt, the higher the memory required, which is in addition to the memory\nrequired to load the model.\n| **Note:** Memory requirements for *fine-tuning* Gemma models are significantly higher than running inference. The requirements depend on the development framework and tuning technique you use, such as Low Rank Adapter (LoRA) versus full-precision tuning.\n\nPrevious Gemma models\n---------------------\n\nYou can work with previous generations of Gemma models, which are also\navailable from [Kaggle](https://www.kaggle.com/models?query=gemma) and\n[Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d).\nFor more technical details about previous Gemma models, see the following\nmodel card pages:\n\n- Gemma 2 [Model Card](/gemma/docs/core/model_card_2)\n- Gemma 1 [Model Card](/gemma/docs/core/model_card)\n\nReady to start building?\n[Get started](/gemma/docs/get_started)\nwith Gemma models!"]]