przyspieszenie NPU za pomocą LiteRT Next;

LiteRT Next udostępnia ujednolicony interfejs do korzystania z jednostek przetwarzania neuronowego (NPU) bez konieczności indywidualnego poruszania się po kompilatorach, środowiskach wykonawczych czy zależnościach bibliotecznych poszczególnych dostawców. Korzystanie z LiteRT Next do akceleracji NPU pozwala uniknąć wielu komplikacji związanych z konkretnymi dostawcami lub urządzeniami, zwiększa wydajność w przypadku wnioskowania w czasie rzeczywistym i w przypadku dużych modeli oraz minimalizuje kopiowanie pamięci dzięki wykorzystaniu bufora sprzętowego bez kopiowania.

Jeśli uczestniczysz już w programie wcześniejszego dostępu do LiteRT NPU, zaloguj się na autoryzowane konto, aby wyświetlić dokumentację NPU. Jeśli nie uczestniczysz jeszcze w programie wcześniejszego dostępu, zarejestruj się w nim:

Zarejestruj się!

Rozpocznij

Na początek zapoznaj się z przewodnikiem po NPU:

Przykłady implementacji LiteRT Next z obsługą NPU znajdziesz w tych aplikacjach demonstracyjnych:

Dostawcy NPU

LiteRT Next obsługuje akcelerację NPU w przypadku tych dostawców: