# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
আপনি সার্ভারটি এভাবে চালু করতে পারেন:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
এটি এমন একটি সার্ভার তৈরি করে যা আপনাকে OpenAI-উপযোগী এন্ডপয়েন্ট ( http://localhost:8080/v1 ) ব্যবহার করে আপনার মডেলটি অ্যাক্সেস করতে দেয়।
জেমার সাথে এমএলএক্স কীভাবে ব্যবহার করবেন সে সম্পর্কে আরও তথ্য ও নির্দেশাবলীর জন্য অফিসিয়াল রিপোজিটরি দেখুন:
[[["সহজে বোঝা যায়","easyToUnderstand","thumb-up"],["আমার সমস্যার সমাধান হয়েছে","solvedMyProblem","thumb-up"],["অন্যান্য","otherUp","thumb-up"]],[["এতে আমার প্রয়োজনীয় তথ্য নেই","missingTheInformationINeed","thumb-down"],["খুব জটিল / অনেক ধাপ","tooComplicatedTooManySteps","thumb-down"],["পুরনো","outOfDate","thumb-down"],["অনুবাদ সংক্রান্ত সমস্যা","translationIssue","thumb-down"],["নমুনা / কোড সংক্রান্ত সমস্যা","samplesCodeIssue","thumb-down"],["অন্যান্য","otherDown","thumb-down"]],["2026-04-16 UTC-তে শেষবার আপডেট করা হয়েছে।"],[],[]]