Exécuter des LLM sur l'appareil avec LiteRT-LM
Framework d'inférence Open Source prêt pour la production, conçu pour déployer des LLM hautes performances et multiplates-formes sur des appareils périphériques.
Sélection du moment
IA générative sur l'appareil dans Chrome, Chromebook Plus et Pixel Watch avec LiteRT-LM.
Pourquoi LiteRT-LM ?
Multiplate-forme
Déployez des LLM sur Android, iOS, le Web et les ordinateurs.
Accélération matérielle
Maximisez les performances grâce à l'accélération GPU et NPU.
Fonctionnalités d'IA générative étendues
Prise en charge des LLM populaires, ainsi que de la multimodalité (Vision, Audio) et de l'utilisation d'outils.
Démarrer la création
Python
API Python avec accélération matérielle sur Linux, macOS, Windows et Raspberry Pi.
Android
Applications Android natives et outils de bureau basés sur la JVM.
iOS
Intégration native à iOS et macOS avec prise en charge spécialisée de Metal (API Swift bientôt disponibles).
C++
API C++ multiplate-formes
Blogs et annonces
IA générative sur l'appareil dans Chrome, Chromebook Plus et Pixel Watch
Déployez des modèles de langage sur des plates-formes portables et basées sur navigateur à l'aide de LiteRT-LM à grande échelle.
Appel de fonction sur l'appareil dans Google AI Edge Gallery
Découvrez comment affiner FunctionGemma et activer les fonctionnalités d'appel de fonction optimisées par les API d'utilisation d'outils LiteRT-LM.
Petits modèles de langage, multimodalité et appel de fonction Google AI Edge
Dernières informations sur la RAG, la multimodalité et les appels de fonction pour les modèles de langage Edge.
Rejoignez la communauté
LiteRT-LM sur GitHub
Contribuez au projet Open Source, signalez des problèmes et consultez des exemples.
Hugging Face
Téléchargez des modèles préconvertis et participez à la discussion.