Delegasi LiteRT untuk NPU

Ekosistem Android mencakup berbagai perangkat dengan berbagai unit pemrosesan neural (NPU). Memanfaatkan NPU khusus ini dapat mempercepat inferensi model LiteRT (TFLite) secara signifikan dan mengurangi konsumsi energi dibandingkan dengan eksekusi CPU atau GPU, sehingga meningkatkan pengalaman pengguna di aplikasi Anda.

Vendor chip yang memproduksi NPU menyediakan delegasi LiteRT untuk memungkinkan aplikasi Anda menggunakan hardware spesifik mereka di setiap perangkat pengguna.

Qualcomm® AI Engine Direct Delegate

Qualcomm® AI Engine Direct Delegate memungkinkan pengguna menjalankan model LiteRT menggunakan runtime AI Engine Direct. Delegasi didukung oleh Neural Network API Qualcomm.

Qualcomm® AI Engine Direct Delegate tersedia di Maven Central. Untuk informasi selengkapnya, lihat dokumentasi Jaringan Neural Qualcomm.

Segera hadir

Kami berharap dapat mendukung delegasi dari vendor berikut dalam beberapa bulan mendatang:

  • Google Pixel
  • MediaTek
  • Samsung System LSI

Nantikan info terbaru dan petunjuk lebih lanjut tentang cara menggunakan delegasi ini untuk memanfaatkan kecanggihan NPU dalam model TFLite Anda.