# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
Запустить сервер можно с помощью следующей команды:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
Это создаст сервер, который позволит вам получить доступ к вашей модели через совместимую с OpenAI конечную точку ( http://localhost:8080/v1 ).
Для получения дополнительной информации и инструкций по использованию MLX с Gemma обратитесь к официальному репозиторию:
[[["Прост для понимания","easyToUnderstand","thumb-up"],["Помог мне решить мою проблему","solvedMyProblem","thumb-up"],["Другое","otherUp","thumb-up"]],[["Отсутствует нужная мне информация","missingTheInformationINeed","thumb-down"],["Слишком сложен/слишком много шагов","tooComplicatedTooManySteps","thumb-down"],["Устарел","outOfDate","thumb-down"],["Проблема с переводом текста","translationIssue","thumb-down"],["Проблемы образцов/кода","samplesCodeIssue","thumb-down"],["Другое","otherDown","thumb-down"]],["Последнее обновление: 2026-04-16 UTC."],[],[]]