メタデータを含むモデルの推論は、数行のコードで簡単に実行できます。LiteRT メタデータには、モデルの機能と使用方法に関する詳細な説明が含まれています。コード生成ツールで、Android Studio ML Binding 機能や LiteRT Android コード生成ツールなどを使用して、推論コードを自動的に生成できます。カスタム推論パイプラインの構成にも使用できます。
ツールとライブラリ
LiteRT は、次のようにさまざまな階層のデプロイ要件に対応するさまざまなツールとライブラリを提供します。
Android コードジェネレーターを使用してモデル インターフェースを生成する
メタデータを含む LiteRT モデルに必要な Android ラッパー コードを自動的に生成する方法は 2 つあります。
Android Studio ML Model Binding は、Android Studio 内で利用できるツールで、グラフィカル インターフェースを介して LiteRT モデルをインポートできます。Android Studio は、プロジェクトの設定を自動的に構成し、モデル メタデータに基づいてラッパー クラスを生成します。
LiteRT コード生成ツールは、メタデータに基づいてモデル インターフェースを自動的に生成する実行可能ファイルです。現在、Java を使用した Android をサポートしています。ラッパーコードにより、
ByteBufferと直接やり取りする必要がなくなります。代わりに、デベロッパーはBitmapやRectなどの型付きオブジェクトを使用して LiteRT モデルを操作できます。Android Studio ユーザーは、Android Studio ML Binding を通じてコード生成機能にアクセスすることもできます。
LiteRT サポート ライブラリを使用してカスタム推論パイプラインを構築する
LiteRT サポート ライブラリは、モデル インターフェースのカスタマイズと推論パイプラインの構築に役立つクロス プラットフォーム ライブラリです。これには、前処理/後処理とデータ変換を行うためのさまざまなユーティリティ メソッドとデータ構造が含まれています。また、TF.Image や TF.Text などの TensorFlow モジュールの動作と一致するように設計されており、トレーニングから推論までの一貫性を確保します。
メタデータを含む事前トレーニング済みモデルを探索する
Kaggle Models を参照して、ビジョン タスクとテキスト タスクの両方のメタデータを含む事前トレーニング済みモデルをダウンロードします。メタデータを可視化するさまざまなオプションもご覧ください。
LiteRT サポート GitHub リポジトリ
その他の例やソースコードについては、LiteRT Support GitHub リポジトリをご覧ください。