خانواده مدلهای باز Gemma شامل طیف وسیعی از اندازههای مدل، قابلیتها و تغییرات ویژه کار میشود تا به شما در ساخت راهحلهای مولد سفارشی کمک کند. اینها مسیرهای اصلی هستند که می توانید هنگام استفاده از مدل های Gemma در یک برنامه دنبال کنید:
یک مدل را انتخاب کنید و آن را همانطور که هست در برنامه خود مستقر کنید
یک مدل را انتخاب کنید، آن را برای یک کار خاص تنظیم کنید ، و سپس آن را در یک برنامه اجرا کنید، یا آن را با جامعه به اشتراک بگذارید.
این راهنما به شما کمک می کند تا با انتخاب یک مدل، آزمایش قابلیت های آن، و به صورت اختیاری، تنظیم مدلی که برای برنامه خود انتخاب کرده اید، شروع کنید.
این بخش به شما کمک می کند تا انواع رسمی خانواده مدل Gemma را درک کنید و مدلی را برای برنامه خود انتخاب کنید. انواع مدل قابلیتهای کلی را ارائه میکنند یا برای کارهای خاص تخصصی هستند و در اندازههای پارامتر مختلف ارائه میشوند، بنابراین میتوانید مدلی را انتخاب کنید که دارای قابلیتهای دلخواه شما باشد و نیازهای محاسباتی شما را برآورده کند.
لیست مدل های جما
جدول زیر انواع اصلی خانواده مدل Gemma و پلتفرم های استقرار مورد نظر آنها را فهرست می کند:
می توانید مدل های Gemma را با راه اندازی یک محیط توسعه با یک مدل دانلود شده و نرم افزار پشتیبانی آزمایش کنید. سپس می توانید مدل را درخواست کنید و پاسخ های آن را ارزیابی کنید. از یکی از نوتبوکهای پایتون زیر با چارچوب یادگیری ماشینی دلخواه خود برای راهاندازی یک محیط آزمایشی و درخواست یک مدل Gemma استفاده کنید:
با استفاده از Google AI Studio میتوانید به سرعت Gemma را بدون راهاندازی محیط توسعه آزمایش کنید. این برنامه تحت وب به شما امکان می دهد دستورات را با Gemma امتحان کنید و قابلیت های آن را ارزیابی کنید.
می توانید با انجام کوک بر روی مدل های جما، رفتار آنها را تغییر دهید. تنظیم یک مدل به مجموعه داده ای از ورودی ها و پاسخ های مورد انتظار با اندازه و تنوع کافی برای هدایت رفتار مدل نیاز دارد. همچنین برای تکمیل یک تنظیم در مقایسه با اجرای مدل Gemma برای تولید متن، به منابع محاسباتی و حافظه بسیار بیشتری نیاز دارید. از یکی از نوت بوک های پایتون زیر برای راه اندازی یک محیط توسعه تنظیم و تنظیم یک مدل Gemma استفاده کنید:
تاریخ آخرین بهروزرسانی 2025-06-02 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-06-02 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Get started with Gemma models\n\nThe Gemma family of open models includes a range of model sizes, capabilities,\nand task-specialized variations to help you build custom generative solutions.\nThese are the main paths you can follow when using Gemma models in an\napplication:\n\n- Select a model and **deploy it as-is** in your application\n- Select a model, **tune it for a specific task**, and then deploy it in an application, or share it with the community.\n\nThis guide helps you get started with [picking](#pick) a model, [testing](#test)\nits capabilities, and optionally, [tuning](#tune) the model you selected for\nyour application.\n| **Tip:** As you begin implementing AI applications, make sure your are following a principled approach to AI that serves all your users with the [Responsible Generative AI Toolkit](/responsible).\n\n[Try Gemma 3](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it)\n[Get it on Kaggle](https://www.kaggle.com/models?query=gemma3&publisher=google)\n[Get it on Hugging Face](https://huggingface.co/models?search=google/gemma-3)\n\nPick a model\n------------\n\nThis section helps you understand the official variants of the Gemma model\nfamily and select a model for your application. The model variants provide\ngeneral capabilities or are specialized for specific tasks, and are provided\nin different parameter sizes so you can pick a model that has your preferred\ncapabilities and meets your compute requirements.\n| **Tip:** A good place to start is the [Gemma 3 4B](https://www.kaggle.com/models/google/gemma-3) model in the latest available version, which can be used for many tasks and has lower resource requirements.\n\n### Gemma models list\n\nThe following table lists the major variants of the Gemma model family and their\nintended deployment platforms:\n\n| **Parameter size** | **Input** | **Output** | **Variant** | **Foundation** | **Intended platforms** |\n|--------------------|---------------------|------------|-------------------------------------------------------------------------|---------------------------------------------|-------------------------------------------|\n| 270M | Text | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Mobile devices and single board computers |\n| 1B | Text | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Mobile devices and single board computers |\n| E2B | Text, images, audio | Text | - [Gemma 3n](/gemma/docs/gemma-3n) | [Gemma 3n](/gemma/docs/gemma-3n/model_card) | Mobile devices |\n| 2B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Mobile devices and laptops |\n| 2B | Text | Text | - [Gemma (core)](/gemma/docs/core) - [CodeGemma](/gemma/docs/codegemma) | [Gemma 1](/gemma/docs/core/model_card) | Mobile devices and laptops |\n| 3B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Desktop computers and small servers |\n| E4B | Text, images, audio | Text | - [Gemma 3n](/gemma/docs/gemma-3n) | [Gemma 3n](/gemma/docs/gemma-3n/model_card) | Mobile devices and laptops |\n| 4B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Desktop computers and small servers |\n| 7B | Text | Text | - [Gemma (core)](/gemma/docs/core) - [CodeGemma](/gemma/docs/codegemma) | [Gemma 1](/gemma/docs/core/model_card) | Desktop computers and small servers |\n| 9B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Higher-end desktop computers and servers |\n| 10B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Higher-end desktop computers and servers |\n| 12B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Higher-end desktop computers and servers |\n| 27B | Text, images | Text | - [Gemma 3 (core)](/gemma/docs/core) | [Gemma 3](/gemma/docs/core/model_card_3) | Large servers or server clusters |\n| 27B | Text | Text | - [Gemma 2 (core)](/gemma/docs/core) | [Gemma 2](/gemma/docs/core/model_card_2) | Large servers or server clusters |\n| 28B | Text, images | Text | - [PaliGemma 2](/gemma/docs/paligemma) | [Gemma 2](/gemma/docs/core/model_card_2) | Large servers or server clusters |\n\nThe Gemma family of models also includes special-purpose and research models,\nincluding\n[ShieldGemma](/gemma/docs/shieldgemma),\n[DataGemma](/gemma/docs/datagemma),\n[Gemma Scope](/gemma/docs/gemmascope),\nand\n[Gemma-APS](/gemma/docs/gemma-aps).\n| **Tip:** You can download official Google Gemma model variants and community-created variants from [Kaggle Models](https://www.kaggle.com/models?query=gemma) and [Hugging Face](https://huggingface.co/models?search=google/gemma).\n\nTest models\n-----------\n\nYou can test Gemma models by setting up a development environment with a\ndownloaded model and supporting software. You can then prompt the model and\nevaluate its responses. Use one of the following Python notebooks with your\npreferred machine learning framework to set up a testing environment and prompt\na Gemma model:\n\n- [Inference with Keras](./core/keras_inference)\n- [Inference with PyTorch](./core/pytorch_gemma)\n- [Inference with Gemma library](./core/gemma_library)\n\n### Test Gemma 3 in AI Studio\n\nYou can quickly test Gemma without setting up a development environment using\nGoogle AI Studio. This web application lets you try out prompts with Gemma\nand evaluate its capabilities.\n\nTo try Gemma 3 in Google AI Studio:\n\n1. Open [AI Studio](https://aistudio.google.com/prompts/new_chat?model=gemma-3-27b-it).\n\n2. In the **Run settings** panel on the right side, in the **Model** field,\n select a different size **Gemma** model.\n\n3. At the bottom of the center panel, type a prompt, and select **Run**.\n\nFor more information about using AI Studio, see the\n[Google AI Studio quickstart](/gemini-api/docs/ai-studio-quickstart).\n\nTune models\n-----------\n\nYou can change the behavior of Gemma models by performing tuning on them. Tuning\na model requires a dataset of inputs and expected responses of sufficient size\nand variation to guide the behavior of the model. You also need significantly\nmore computing and memory resources to complete a tuning run compared to running\na Gemma model for text generation. Use one of the following Python notebooks to\nset up a tuning development environment and tune a Gemma model:\n\n- [Tune Gemma with Keras and LoRA tuning](./core/lora_tuning)\n- [Tune larger Gemma models with distributed training](./core/distributed_tuning)\n\nNext Steps\n----------\n\nCheck out these guides for building more solutions with Gemma:\n\n- [Create a chatbot with Gemma](./gemma_chat)\n- [Deploy Gemma to production with Vertex AI](https://cloud.google.com/vertex-ai/generative-ai/docs/open-models/use-gemma)\n- [Use Genkit with Ollama and Gemma](https://firebase.google.com/docs/genkit/plugins/ollama)"]]