# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
میتوانید سرور را با دستور زیر شروع کنید:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
این یک سرور ایجاد میکند که به شما امکان میدهد با نقطه پایانی سازگار با OpenAI ( http://localhost:8080/v1 ) به مدل خود دسترسی داشته باشید.
برای اطلاعات بیشتر و دستورالعملهای مربوط به نحوه استفاده از MLX با Gemma، به مخزن رسمی مراجعه کنید:
تاریخ آخرین بهروزرسانی 2026-04-16 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2026-04-16 بهوقت ساعت هماهنگ جهانی."],[],[]]