Produktionsreifes Open-Source-Inferenz-Framework für leistungsstarke, plattformübergreifende LLM-Bereitstellungen auf Edge-Geräten

Warum LiteRT-LM?

LLMs auf Android-, iOS-, Web- und Desktop-Geräten bereitstellen
Leistung mit GPU- und NPU-Beschleunigung maximieren
Unterstützung für gängige LLMs sowie Multimodalität (Vision, Audio) und Tool Use.
Führen Sie die neuesten offenen Modelle aus, die für den Edge optimiert sind, darunter Gemma-3n, Gemma-3, FunctionGemma, TranslateGemma, Qwen3 und Phi-4.

Gleich mit dem Erstellen loslegen

Native Android-Apps und JVM-basierte Desktop-Tools.
Native iOS- und macOS-Integration mit spezieller Metal-Unterstützung (Swift-APIs folgen demnächst).
Direkt im Browser mit WebAssembly und WebGPU ausführen (JS-APIs folgen demnächst).

Teil der Community werden

Sie können zum Quellcode beitragen, Probleme melden und Beispiele ansehen.
Laden Sie vorkonvertierte Modelle herunter und beteiligen Sie sich an der Diskussion.