اجرای مدلهای هوش مصنوعی مولد (AI) مانند Gemma میتواند بدون سختافزار مناسب چالشبرانگیز باشد. چارچوبهای متنباز مانند llama.cpp و Ollama با تنظیم یک محیط زمان اجرا از پیش پیکربندیشده که به شما امکان میدهد نسخههایی از Gemma را با منابع محاسباتی کمتری اجرا کنید، این کار را آسانتر میکنند. در واقع، با استفاده از llama.cpp و Ollama میتوانید نسخههایی از Gemma را روی لپتاپ یا سایر دستگاههای محاسباتی کوچک بدون واحد پردازش گرافیکی (GPU) اجرا کنید.
برای اجرای مدلهای Gemma با منابع محاسباتی کمتر، چارچوبهای llama.cpp و Ollama از نسخههای کوانتیزهشدهی مدلها در قالب فایل مدل Georgi Gerganov Unified Format (GGUF) استفاده میکنند. این مدلهای کوانتیزهشده برای پردازش درخواستها با استفاده از دادههای کوچکتر و با دقت کمتر اصلاح شدهاند. استفاده از دادههای با دقت کمتر در مدلهای کوانتیزهشده برای پردازش درخواستها معمولاً کیفیت خروجی مدلها را کاهش میدهد، اما با این مزیت که هزینههای منابع محاسباتی را نیز کاهش میدهد.
این راهنما نحوه راهاندازی و استفاده از Ollama برای اجرای Gemma جهت تولید پاسخهای متنی را شرح میدهد.
راهاندازی
این بخش نحوه راهاندازی Ollama و آمادهسازی یک نمونه مدل Gemma برای پاسخ به درخواستها، از جمله درخواست دسترسی به مدل، نصب نرمافزار و پیکربندی مدل Gemma در Ollama را شرح میدهد.
نصب اولاما
قبل از اینکه بتوانید از Gemma به همراه Ollama استفاده کنید، باید نرمافزار Ollama را دانلود و روی دستگاه رایانه خود نصب کنید.
برای دانلود و نصب Ollama:
- به صفحه دانلود بروید: https://ollama.com/download
- سیستم عامل خود را انتخاب کنید، روی دکمه دانلود کلیک کنید یا دستورالعملهای روی صفحه دانلود را دنبال کنید.
- با اجرای فایل نصب، برنامه را نصب کنید.
- ویندوز: فایل نصب *.exe را اجرا کنید و دستورالعملها را دنبال کنید.
- مک: بستهی زیپ را از حالت فشرده خارج کنید و پوشهی برنامهی Ollama را به پوشهی Applications خود منتقل کنید.
- لینوکس: دستورالعملهای موجود در نصبکننده اسکریپت bash را دنبال کنید.
با باز کردن یک پنجره ترمینال و وارد کردن دستور زیر، از نصب Ollama اطمینان حاصل کنید:
اولاما --نسخه
باید پاسخی مشابه با این ببینید: ollama version is #.#.## . اگر این نتیجه را دریافت نکردید، مطمئن شوید که فایل اجرایی Ollama به مسیر سیستم عامل شما اضافه شده است.
پیکربندی Gemma در Ollama
بسته نصب Ollama به طور پیشفرض هیچ مدلی را شامل نمیشود. شما با استفاده از دستور pull یک مدل را دانلود میکنید.
برای پیکربندی Gemma در Ollama:
با باز کردن یک پنجره ترمینال و وارد کردن دستور زیر، نسخه پیشفرض Gemma 4 را دانلود و پیکربندی کنید:
اولاما پول جما4
پس از اتمام دانلود، میتوانید با دستور زیر از موجود بودن مدل اطمینان حاصل کنید:
لیست اولاما
مدلها به صورت <model_name>:<tag> مشخص میشوند. برای Gemma 4، چهار اندازه: E2B، E4B، 26B و 31B با پارامترهای زیر وجود دارد:
- پارامترهای E2B
gemma4:e2b - پارامترهای E4B
gemma4:e4b - پارامترهای 26B A4B
gemma4:26b - پارامترهای ۳۱ب
gemma4:31b
میتوانید برچسبهای موجود، از جمله Gemma 4 ، Gemma 3n ، Gemma 3 ، Gemma 2 و Gemma را در وبسایت Ollama پیدا کنید.
تولید پاسخها
وقتی نصب یک مدل Gemma در Ollama تمام شد، میتوانید بلافاصله با استفاده از دستور run رابط خط فرمان Ollama پاسخها را تولید کنید. Ollama همچنین یک سرویس وب را برای دسترسی به مدل پیکربندی میکند که میتوانید با استفاده از دستور curl آن را آزمایش کنید.
برای تولید پاسخ از خط فرمان:
در یک پنجره ترمینال، و با وارد کردن دستور زیر:
ollama run gemma4 "roses are red"برای استفاده از ورودی بصری، مسیر تصویر خود را وارد کنید:
ollama run gemma4 "caption this image /Users/$USER/Desktop/surprise.png"
برای تولید پاسخ با استفاده از سرویس وب محلی Ollama:
در یک پنجره ترمینال، و با وارد کردن دستور زیر:
curl http://localhost:11434/api/generate -d '{\ "model": "gemma4",\ "prompt":"roses are red"\ }'فهرستی از تصاویر کدگذاریشده با base64 را برای استفاده از ورودی بصری وارد کنید:
curl http://localhost:11434/api/generate -d '{\ "model": "gemma4",\ "prompt":"caption this image",\ "images":[...]\ }'
مدلهای تنظیمشدهی جما
اولاما مجموعهای از مدلهای رسمی Gemma را برای استفاده فوری ارائه میدهد که کوانتیزه شده و با فرمت GGUF ذخیره میشوند. شما میتوانید با تبدیل مدلهای Gemma تنظیمشده خود به فرمت GGUF، از آنها در اولاما استفاده کنید. اولاما شامل توابعی برای تبدیل مدلهای تنظیمشده از فرمت Modelfile به GGUF است. برای اطلاعات بیشتر در مورد نحوه تبدیل مدل تنظیمشده خود به GGUF، به فایل راهنمای کاربر اولاما مراجعه کنید.
مراحل بعدی
زمانی که Gemma را با Ollama اجرا کردید، میتوانید شروع به آزمایش و ساخت راهحلها با قابلیتهای هوش مصنوعی مولد Gemma کنید. رابط خط فرمان Ollama میتواند برای ساخت راهحلهای اسکریپتنویسی مفید باشد. رابط سرویس وب محلی Ollama میتواند برای ساخت برنامههای آزمایشی و کمحجم مفید باشد.
- سعی کنید با استفاده از سرویس وب Ollama یک دستیار کد شخصی محلی ایجاد کنید.
- یاد بگیرید که چگونه یک مدل Gemma را تنظیم دقیق کنید .
- یاد بگیرید که چگونه Gemma را با Ollama و با استفاده از سرویسهای Google Cloud Run اجرا کنید.
- با نحوه اجرای Gemma با Google Cloud آشنا شوید.