Delegasi LiteRT untuk NPU

Ekosistem Android mencakup berbagai perangkat dengan unit pemrosesan neural (NPU) yang beragam. Memanfaatkan NPU khusus ini dapat secara signifikan mempercepat inferensi model LiteRT (TFLite) dan mengurangi konsumsi energi dibandingkan dengan eksekusi CPU atau GPU, sehingga meningkatkan pengalaman pengguna dalam aplikasi Anda.

Vendor chip yang memproduksi NPU menyediakan delegasi LiteRT untuk memungkinkan aplikasi Anda menggunakan hardware spesifik mereka di perangkat setiap pengguna.

Delegasi Langsung Qualcomm® AI Engine

Delegasi Langsung Qualcomm® AI Engine memungkinkan pengguna menjalankan model LiteRT menggunakan runtime Langsung AI Engine. Delegasi didukung oleh Neural Network API Qualcomm.

Delegasi Langsung Qualcomm® AI Engine tersedia di Maven Central. Untuk informasi selengkapnya, lihat dokumentasi Qualcomm Neural Network.

Segera hadir

Kami berharap dapat mendukung delegasi dari vendor berikut dalam beberapa bulan mendatang:

  • Google Pixel
  • Samsung System LSI
  • Intel

Nantikan info terbaru dan petunjuk lebih lanjut tentang cara menggunakan delegasi ini untuk memanfaatkan kecanggihan NPU dalam model LiteRT (TFLite) Anda.