# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
يمكنك بدء الخادم باستخدام:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
يؤدي هذا إلى إنشاء خادم يتيح لك الوصول إلى نموذجك باستخدام نقطة النهاية المتوافقة مع OpenAI (http://localhost:8080/v1).
لمزيد من المعلومات والتعليمات حول كيفية استخدام MLX مع Gemma، يُرجى الرجوع إلى المستودع الرسمي:
تاريخ التعديل الأخير: 2026-04-17 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2026-04-17 (حسب التوقيت العالمي المتفَّق عليه)"],[],[]]