NPU-Beschleunigung mit LiteRT Next

LiteRT Next bietet eine einheitliche Schnittstelle für die Verwendung von Neural Processing Units (NPUs), ohne dass Sie sich mit anbieterspezifischen Compilern, Runtimes oder Bibliotheksabhängigkeiten auseinandersetzen müssen. Durch die Verwendung von LiteRT Next für die NPU-Beschleunigung werden viele anbieter- oder gerätespezifische Komplikationen vermieden, die Leistung für Echtzeit- und Large-Model-Inferenz gesteigert und Speicherkopien durch die Verwendung von Hardwarepuffern ohne Kopieren minimiert.

Wenn Sie bereits am LiteRT NPU Early Access Program teilnehmen, melden Sie sich mit dem autorisierten Konto an, um die NPU-Dokumentation aufzurufen. Wenn Sie sich noch nicht registriert haben, melden Sie sich für das Early Access-Programm an:

Jetzt registrieren!

Jetzt starten

Weitere Informationen finden Sie im Leitfaden zur NPU-Übersicht:

Beispielimplementierungen von LiteRT Next mit NPU-Unterstützung finden Sie in den folgenden Demoanwendungen:

NPU-Anbieter

LiteRT Next unterstützt die NPU-Beschleunigung mit den folgenden Anbietern: