NPU の LiteRT デリゲート

Android エコシステムには、さまざまなニューラル プロセッシング ユニット(NPU)を搭載した幅広いデバイスが含まれます。これらの専用の NPU を活用することで、LiteRT(TFLite)モデル推論を大幅に高速化し、CPU または GPU の実行と比較してエネルギー消費を削減し、アプリケーションのユーザー エクスペリエンスを向上させることができます。

NPU を製造するチップ ベンダーは、LiteRT デリゲートを提供します。これにより、アプリは各ユーザーのデバイスで特定のハードウェアを使用できます。

Qualcomm® AI Engine Direct Delegate

Qualcomm® AI Engine Direct Delegate を使用すると、AI Engine Direct ランタイムを使用して LiteRT モデルを実行できます。このデリゲートには Qualcomm の Neural Network API が使用されます。

Qualcomm® AI Engine Direct Delegate は Maven Central で入手できます。詳細については、Qualcomm Neural Network のドキュメントをご覧ください。

近日提供予定

今後数か月以内に、以下のベンダーの担当者をサポートする予定です。

  • Google Pixel
  • MediaTek
  • Samsung System LSI

これらのデリゲートを使用して TFLite モデルで NPU のパワーを活用する方法については、最新情報と詳細な手順をご確認ください。