تشغيل Gemma باستخدام MLX

‫MLX هو إطار عمل مصفوفة لتعلُّم الآلة على أجهزة Apple silicon.

البدء بسرعة

التثبيت من مؤشر حزمة Python (PyPI)

pip install mlx mlx-lm mlx-vlm

مثال على الأمر:

# Text Generation
mlx_lm.generate --model mlx-community/gemma-4-e2b-it-4bit --prompt "Who are you?"

# Vision Task
mlx_vlm.generate --model mlx-community/gemma-4-e2b-it-4bit --prompt "Describe this image." --image <path_to_image>

يمكنك بدء الخادم باستخدام:

mlx_vlm.server --port 8080

# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server --model mlx-community/gemma-4-e2b-it-4bit

يؤدي هذا إلى إنشاء خادم يتيح لك الوصول إلى نموذجك باستخدام نقطة النهاية المتوافقة مع OpenAI‏ (http://localhost:8080/v1).

لمزيد من المعلومات والتعليمات حول كيفية استخدام MLX مع Gemma، يُرجى الرجوع إلى المستودع الرسمي: