# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
Mund ta nisni serverin me:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
Kjo krijon një server që ju lejon të hyni në modelin tuaj me pikën fundore të pajtueshme me OpenAI ( http://localhost:8080/v1 ).
Për më shumë informacion dhe udhëzime se si të përdorni MLX me Gemma, referojuni depove zyrtare:
[[["E lehtë për t'u kuptuar","easyToUnderstand","thumb-up"],["E zgjidhi problemin tim","solvedMyProblem","thumb-up"],["Tjetër","otherUp","thumb-up"]],[["Mungojnë informacionet që më nevojiten","missingTheInformationINeed","thumb-down"],["Shumë e ndërlikuar/shumë hapa","tooComplicatedTooManySteps","thumb-down"],["E papërditësuar","outOfDate","thumb-down"],["Problem përkthimi","translationIssue","thumb-down"],["Problem me kampionët/kodin","samplesCodeIssue","thumb-down"],["Tjetër","otherDown","thumb-down"]],["Përditësimi i fundit: 2026-04-16 UTC."],[],[]]