Gemma خانواده ای از مدل های سبک وزن و مدرن است که از همان تحقیقات و فناوری استفاده شده برای ساخت مدل های Gemini ساخته شده است. Gemma که توسط Google DeepMind و سایر تیمها در سراسر گوگل توسعه یافته است، از کلمه لاتین gemma به معنای "سنگ قیمتی" نامگذاری شده است. وزنهای مدل Gemma توسط ابزارهای توسعهدهندهای پشتیبانی میشوند که نوآوری، همکاری و استفاده مسئولانه از هوش مصنوعی (AI) را ترویج میکنند.
مدلهای Gemma برای اجرا در برنامههای کاربردی و روی سختافزار، دستگاههای تلفن همراه یا سرویسهای میزبانیشده در دسترس هستند. همچنین میتوانید این مدلها را با استفاده از تکنیکهای تنظیم سفارشی کنید تا در انجام وظایفی که برای شما و کاربرانتان مهم است، برتری داشته باشند. مدلهای Gemma از خانواده مدلهای Gemini الهام میگیرند و تبار تکنولوژیکی را میگیرند و برای جامعه توسعهدهندگان هوش مصنوعی ساخته شدهاند تا توسعه دهند و بیشتر پیش بروند.
میتوانید از مدلهای Gemma برای تولید متن استفاده کنید، با این حال میتوانید این مدلها را برای تخصص در انجام کارهای خاص تنظیم کنید. مدلهای جما تنظیمشده میتوانند راهحلهای هوش مصنوعی هدفمندتر و کارآمدتری را به شما و کاربرانتان ارائه دهند. راهنمای ما در مورد تنظیم با LoRA را بررسی کنید و آن را امتحان کنید! ما از دیدن آنچه با Gemma می سازید هیجان زده ایم!
این مستندات توسعهدهنده یک نمای کلی از مدلهای Gemma موجود و راهنمای توسعه برای نحوه اعمال آنها و تنظیم آنها برای برنامههای خاص ارائه میکند.
اندازه ها و قابلیت های مدل
مدلهای Gemma در اندازههای مختلفی در دسترس هستند، بنابراین میتوانید راهحلهای هوش مصنوعی مولد را بر اساس منابع محاسباتی موجود، قابلیتهایی که نیاز دارید و جایی که میخواهید اجرا کنید، بسازید. اگر مطمئن نیستید از کجا شروع کنید، اندازه پارامتر 2B را برای منابع کمتر مورد نیاز و انعطاف پذیری بیشتر در محل استقرار مدل امتحان کنید.
اندازه پارامترها | ورودی | خروجی | نسخه های تنظیم شده | پلتفرم های مورد نظر |
---|---|---|---|---|
2B | متن | متن |
| دستگاه های موبایل و لپ تاپ |
7B | متن | متن |
| کامپیوترهای رومیزی و سرورهای کوچک |
با استفاده از ویژگی Keras 3.0 multi-backed، می توانید این مدل ها را روی TensorFlow، JAX و PyTorch اجرا کنید یا حتی از پیاده سازی های بومی JAX (بر اساس چارچوب FLAX) و PyTorch استفاده کنید.
می توانید مدل های جما را از Kaggle Models دانلود کنید.
مدل های تیون شده
میتوانید رفتار مدلهای Gemma را با آموزش اضافی تغییر دهید تا مدل در کارهای خاص بهتر عمل کند. این فرآیند تنظیم مدل نامیده می شود و در حالی که این تکنیک توانایی مدل را برای انجام وظایف هدفمند بهبود می بخشد، همچنین می تواند باعث بدتر شدن مدل در سایر وظایف شود. به همین دلیل، مدل های Gemma در دو نسخه تنظیم شده و از پیش آموزش دیده در دسترس هستند:
- Pretrained - این نسخه های مدل برای هیچ کار یا دستورالعمل خاصی فراتر از مجموعه آموزشی داده هسته Gemma آموزش داده نمی شوند. شما نباید این مدل ها را بدون انجام برخی تنظیم ها مستقر کنید.
- دستورالعمل تنظیم شده - این نسخههای مدل با تعاملات زبانی انسانی آموزش داده شدهاند و میتوانند به ورودی مکالمه پاسخ دهند، شبیه به یک ربات چت.
شروع کنید
برای شروع راهحلهای ساخت با Gemma، این راهنماها را بررسی کنید:
- تولید متن با Gemma - یک مثال تولید متن اولیه با مدل بسازید.
- تنظیم Gemma با تنظیم LoRA - تنظیم دقیق LoRA را در مدل Gemma 2B انجام دهید.
- یک مدل Gemma را با استفاده از آموزش توزیع شده تنظیم کنید - از Keras با پشتیبان JAX برای تنظیم دقیق مدل Gemma 7B با LoRA و موازی سازی مدل استفاده کنید.
- Gemma در PyTorch - با استفاده از PyTorch متنی را با Gemma ایجاد کنید.
- استقرار Gemma در تولید - از Vertex AI برای استقرار Gemma در تولید استفاده کنید.