# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
Bạn có thể khởi động máy chủ bằng:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
Lệnh này sẽ tạo một máy chủ cho phép bạn truy cập vào mô hình của mình bằng điểm cuối tương thích với OpenAI (http://localhost:8080/v1).
Để biết thêm thông tin và hướng dẫn về cách sử dụng MLX với Gemma, hãy tham khảo kho lưu trữ chính thức:
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2026-04-17 UTC."],[],[]]