MLX es un framework de arrays para el aprendizaje automático en Apple Silicon.
Inicio rápido
Instala desde el índice de paquetes de Python (PyPI)
pipinstallmlxmlx-lmmlx-vlm
Comando de ejemplo:
# Text Generation
mlx_lm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Who are you?"# Vision Task
mlx_vlm.generate--modelmlx-community/gemma-4-e2b-it-4bit--prompt"Describe this image."--image<path_to_image>
Puedes iniciar el servidor con el siguiente comando:
mlx_vlm.server--port8080# Preload a model at startup (Hugging Face repo or local path)
mlx_vlm.server--modelmlx-community/gemma-4-e2b-it-4bit
Esto crea un servidor que te permite acceder a tu modelo con el extremo compatible con OpenAI (http://localhost:8080/v1).
Para obtener más información y consultar las instrucciones sobre cómo usar MLX con Gemma, consulta el repositorio oficial:
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2026-04-17 (UTC)"],[],[]]