LiteRT Next bietet eine einheitliche Schnittstelle für die Verwendung von Neural Processing Units (NPUs), ohne dass Sie sich mit anbieterspezifischen Compilern, Runtimes oder Bibliotheksabhängigkeiten auseinandersetzen müssen. Durch die Verwendung von LiteRT Next für die NPU-Beschleunigung werden viele anbieter- oder gerätespezifische Komplikationen vermieden, die Leistung für Echtzeit- und Large-Model-Inferenz gesteigert und Speicherkopien durch die Verwendung von Hardwarepuffern ohne Kopieren minimiert.
Wenn Sie bereits am LiteRT NPU Early Access Program teilnehmen, melden Sie sich mit dem autorisierten Konto an, um die NPU-Dokumentation aufzurufen. Wenn Sie sich noch nicht registriert haben, melden Sie sich für das Early Access-Programm an:
Für Large Language Models (LLMs) empfehlen wir die Verwendung unseres LiteRT-LM-Frameworks, um die erforderliche End-to-End-Verarbeitung für die NPU-Ausführung zu verarbeiten:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-03 (UTC)."],[],[]]