جما یک خانواده از مدلهای هوش مصنوعی مولد (AI) است و شما میتوانید از آنها در طیف گستردهای از وظایف تولید، از جمله پاسخگویی به سؤال، خلاصهسازی و استدلال استفاده کنید. مدلهای Gemma با وزنههای باز ارائه میشوند و اجازه استفاده تجاری مسئولانه را میدهند و به شما این امکان را میدهند که آنها را در پروژهها و برنامههای خود تنظیم و به کار ببرید.
نسخه Gemma 3 شامل ویژگی های کلیدی زیر است. آن را در AI Studio امتحان کنید:
ورودی تصویر و متن : قابلیت های چندوجهی به شما امکان می دهد تصاویر و متن را برای درک و تجزیه و تحلیل داده های بصری وارد کنید. شروع به ساختن کنید
زمینه توکن 128K : زمینه ورودی 16 برابر بزرگتر برای تجزیه و تحلیل داده های بیشتر و حل مشکلات پیچیده تر.
اندازههای مدل مناسب برای توسعهدهنده : اندازه مدل (1B، 4B، 12B، 27B) و سطح دقیقی را انتخاب کنید که برای کار و منابع محاسباتی شما بهترین کار را دارد.
می توانید مدل های جما 3 را از Kaggle و Hugging Face دانلود کنید. برای جزئیات فنی بیشتر در مورد Gemma 3، کارت مدل و گزارش فنی را ببینید. نسخه های قبلی مدل های هسته جما نیز برای دانلود در دسترس هستند. برای اطلاعات بیشتر، مدل های قبلی Gemma را ببینید.
میتوانید با Gemma 3 با توانایی مدیریت دادههای تصویر و متن، به تجزیه و تحلیل پیچیدهتر و وظایف تولید بپردازید. شما می توانید از این مدل برای تفسیر داده های تصویر، شناسایی اشیا، استخراج داده های متنی و تکمیل بسیاری از کارهای ورودی بصری به خروجی متن استفاده کنید. شروع به ساختن کنید
پنجره زمینه 128K نشانه
مدلهای Gemma 3 میتوانند ورودیهای فوری تا 128 هزار توکن را مدیریت کنند که یک پنجره زمینه 16 برابر بزرگتر از مدلهای قبلی Gemma است. تعداد زیاد نشانه ها به این معنی است که می توانید چندین مقاله چند صفحه ای، مقاله تکی بزرگتر یا صدها تصویر را در یک درخواست پردازش کنید.
پشتیبانی از زبان گسترده
با پشتیبانی داخلی بیش از 140 زبان به زبان خود کار کنید. Gemma 3 برای پشتیبانی از تعداد زیادی زبان در مقایسه با نسخههای قبلی Gemma آموزش دیده است و به شما امکان میدهد کارهای بصری و متنی بیشتری را در زبانهایی که مشتریانتان استفاده میکنند انجام دهید. شروع به ساختن کنید
فراخوانی تابع
برای رابط های برنامه نویسی کنترل های زبان طبیعی و هوشمند بسازید. Gemma 3 به شما امکان می دهد توابع کدگذاری را با نحو و محدودیت های خاص تعریف کنید و مدل می تواند این توابع را برای تکمیل وظایف فراخوانی کند. شروع به ساختن کنید
اندازه پارامترها و کوانتیزاسیون
مدل های Gemma 3 در 4 اندازه پارامتر در 5 سطح دقت، از دقت کامل در 32 بیت تا کمترین دقت در 4 بیت در دسترس هستند. اندازه ها و دقت های مختلف مجموعه ای از معاوضه ها را برای برنامه هوش مصنوعی شما نشان می دهد. مدلهایی با پارامترها و تعداد بیتهای بالاتر (دقت بالاتر) معمولاً توانمندتر هستند، اما از نظر چرخههای پردازش، هزینه حافظه و مصرف انرژی، گرانتر هستند. مدل هایی با پارامترها و تعداد بیت کمتر (دقت کمتر) قابلیت های کمتری دارند، اما ممکن است برای وظیفه هوش مصنوعی شما کافی باشند. جدول زیر جزئیات مورد نیاز تقریبی حافظه GPU یا TPU برای اجرای استنتاج با هر اندازه از نسخه های مدل Gemma 3 را نشان می دهد.
پارامترها
32 بیت کامل
BF16 (16 بیت)
SFP8 (8 بیتی)
Q4_0 (4 بیتی)
INT4 (4 بیتی)
Gemma 3 1B ( فقط متن )
4 گیگابایت
1.5 گیگابایت
1.1 گیگابایت
892 مگابایت
861 مگابایت
Gemma 3 4B
16 گیگابایت
6.4 گیگابایت
4.4 گیگابایت
3.4 گیگابایت
3.2 گیگابایت
Gemma 3 12B
48 گیگابایت
20 گیگابایت
12.2 گیگابایت
8.7 گیگابایت
8.2 گیگابایت
Gemma 3 27B
108 گیگابایت
46.4 گیگابایت
29.1 گیگابایت
21 گیگابایت
19.9 گیگابایت
جدول 1. حافظه تقریبی GPU یا TPU مورد نیاز برای بارگیری مدل های Gemma 3 بر اساس تعداد پارامترها و سطح کوانتیزاسیون (عمق بیت).
مصرف حافظه بر اساس تعداد کل توکن های مورد نیاز برای درخواستی که اجرا می کنید افزایش می یابد. هر چه تعداد نشانه های مورد نیاز برای پردازش درخواست شما بیشتر باشد، حافظه مورد نیاز بیشتر است، که علاوه بر حافظه مورد نیاز برای بارگذاری مدل است.
مدل های قبلی جما
میتوانید با نسلهای قبلی مدلهای Gemma که از Kaggle و Hugging Face نیز موجود است، کار کنید. برای جزئیات فنی بیشتر در مورد مدل های قبلی Gemma، به صفحات کارت مدل زیر مراجعه کنید:
تاریخ آخرین بهروزرسانی 2025-03-21 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-03-21 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Gemma 3 model overview\n\nGemma is a family of generative artificial intelligence (AI) models and you can\nuse them in a wide variety of generation tasks, including question answering,\nsummarization, and reasoning. Gemma models are provided with open weights and\npermit responsible\n[commercial use](/gemma/terms),\nallowing you to tune and deploy them in your own projects and applications.\n\nThe Gemma 3 release includes the following key features. Try it in\n[AI Studio](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it):\n\n- [**Image and text input**](#multimodal-input): Multimodal capabilities let you input images and text to understand and analyze visual data. [Start building](/gemma/docs/core/keras_inference)\n- [**128K token context**](#128k-context): Significantly large input context for analyzing more data and solving more complex problems.\n- [**Function calling**](#function-calling): Build natural language interfaces for working with programming interfaces. [Start building](/gemma/docs/capabilities/function-calling)\n- [**Wide language support**](#multilingual): Work in your language or expand your AI application's language capabilities with support for over 140 languages. [Start building](/gemma/docs/spoken-language)\n- [**Developer friendly model sizes**](#sizes): Choose a model size (270M, 1B, 4B, 12B, 27B) and precision level that works best for your task and compute resources.\n\nYou can download Gemma 3 models from\n[Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google) and\n[Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d).\nFor more technical details on Gemma 3, see the\n[Model Card](/gemma/docs/core/model_card_3) and\n[Technical Report](https://goo.gle/Gemma3Report).\nEarlier versions of Gemma core models are also available for download. For more\ninformation, see [Previous Gemma models](#previous-models).\n\n[Try Gemma 3](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it)\n[Get it on Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google)\n[Get it on Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d)\n\nMultimodal image and text input\n-------------------------------\n\nYou can tackle complex analysis and generation tasks with Gemma 3 with its\nability to handle image and text data. You can use the model to interpret image\ndata, identify objects, extract text data, and complete many other visual input\nto text output tasks.\n[Start building](/gemma/docs/core/keras_inference)\n| **Important:** The Gemma 3 270M and 1B models are text only and *do not support\n| image input*.\n\n128K token context window\n-------------------------\n\nGemma 3 models (4B, 12B, and 27B) can handle prompt inputs up to 128K tokens, a\n16x larger context window than previous Gemma models. The large number of tokens\nmeans you can process several, multi page articles, larger single articles, or\nhundreds of images in a single prompt.\n| **Important:** The Gemma 3 270M and 1B models can process up to 32k tokens.\n\nWide language support\n---------------------\n\nWork in your own language with built-in support for over 140 languages. Gemma 3\nis trained to support a large number of languages compared to previous Gemma\nversions, letting you take on more visual and text tasks in the languages your\ncustomers use.\n[Start building](/gemma/docs/spoken-language)\n\nFunction calling\n----------------\n\nBuild intelligent, natural language controls for programming interfaces. Gemma\n3 lets you define coding functions with specific syntax and constraints, and\nthe model can call these functions to complete tasks.\n[Start building](/gemma/docs/capabilities/function-calling)\n\nParameter sizes and quantization\n--------------------------------\n\nGemma 3 models are available in 5 parameter sizes: 270M, 1B, 4B, 12B, and 27B.\nThe models can be used with their default precision (16-bit) or with a lower\nprecision using quantization. The different sizes and precisions represent a set\nof trade-offs for your AI application. Models with higher parameters and bit\ncounts (higher precision) are generally more capable, but are more expensive to\nrun in terms of processing cycles, memory cost and power consumption. Models\nwith lower parameters and bit counts (lower precision) have less capabilities,\nbut may be sufficient for your AI task.\n\nFor all Gemma 3 models, [Quantization-Aware Trained](https://developers.googleblog.com/en/gemma-3-quantized-aware-trained-state-of-the-art-ai-to-consumer-gpus/)\ncheckpoints are provided, which allow quantizing (reducing the precision), while\npreserving high-quality.\n\nThe following table details the approximate GPU or TPU memory requirements for\nrunning inference with each size of the Gemma 3 model versions. Note that the\nnumbers may changed based on inference tool.\n\n| **Parameters** | **BF16 (16-bit)** | **SFP8 (8-bit)** | **Q4_0 (4-bit)** |\n|----------------------------|-------------------|------------------|------------------|\n| Gemma 3 270M (*text only*) | 400 MB | 297 MB | 240 MB |\n| Gemma 3 1B (*text only*) | 1.5 GB | 1.1 GB | 892 MB |\n| Gemma 3 4B | 6.4 GB | 4.4 GB | 3.4 GB |\n| Gemma 3 12B | 20 GB | 12.2 GB | 8.7 GB |\n| Gemma 3 27B | 46.4 GB | 29.1 GB | 21 GB |\n\n**Table 1.** Approximate GPU or TPU memory required to load Gemma 3 models\nbased on parameter count and quantization level.\n| **Caution:** These estimates only include the memory required to load the models. They don't include the additional memory required for the prompt tokens or supporting software.\n\nMemory consumption increases based on the total number of tokens required for\nthe prompt you run. The larger the number of tokens required to process your\nprompt, the higher the memory required, which is in addition to the memory\nrequired to load the model.\n| **Note:** Memory requirements for *fine-tuning* Gemma models are significantly higher than running inference. The requirements depend on the development framework and tuning technique you use, such as Low Rank Adapter (LoRA) versus full-precision tuning.\n\nPrevious Gemma models\n---------------------\n\nYou can work with previous generations of Gemma models, which are also\navailable from [Kaggle](https://www.kaggle.com/models?query=gemma) and\n[Hugging Face](https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d).\nFor more technical details about previous Gemma models, see the following\nmodel card pages:\n\n- Gemma 2 [Model Card](/gemma/docs/core/model_card_2)\n- Gemma 1 [Model Card](/gemma/docs/core/model_card)\n\nReady to start building?\n[Get started](/gemma/docs/get_started)\nwith Gemma models!"]]