LLMs mit LiteRT-LM auf dem Gerät ausführen
Produktionsreifes Open-Source-Inferenz-Framework für leistungsstarke, plattformübergreifende LLM-Bereitstellungen auf Edge-Geräten
Warum LiteRT-LM?
Plattformübergreifend
LLMs auf Android-, iOS-, Web- und Desktop-Geräten bereitstellen
Hardwarebeschleunigt
Leistung mit GPU- und NPU-Beschleunigung maximieren
Umfassende GenAI-Funktionen
Unterstützung für gängige LLMs sowie Multimodalität (Vision, Audio) und Tool Use.
Unterstützte Modelle
Führen Sie die neuesten offenen Modelle aus, die für den Edge optimiert sind, darunter Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3 und Phi-4.
Teil der Community werden
GitHub
Sie können zum Quellcode beitragen, Probleme melden und Beispiele ansehen.
Hugging Face
Laden Sie vorkonvertierte Modelle herunter und beteiligen Sie sich an der Diskussion.