Exécuter des LLM sur l'appareil avec LiteRT-LM
Framework d'inférence Open Source prêt pour la production, conçu pour déployer des LLM hautes performances et multiplates-formes sur des appareils Edge
Pourquoi LiteRT-LM ?
Multiplate-forme
Déployez des LLM sur Android, iOS, le Web et les ordinateurs.
Accélération matérielle
Maximisez les performances grâce à l'accélération GPU et NPU.
Fonctionnalités d'IA générative étendues
Prise en charge des LLM populaires, ainsi que de la multimodalité (Vision, Audio) et de l'utilisation d'outils.
Modèles compatibles
Exécutez les derniers modèles ouverts optimisés pour l'edge, y compris Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3, Phi-4 et plus encore.
Démarrer la création
Rejoignez la communauté
GitHub
Contribuez au code source, signalez des problèmes et consultez des exemples.
Hugging Face
Téléchargez des modèles préconvertis et participez à la discussion.