メタデータを使用したモデルの推論は、 わずか数行のコードを記述しました。LiteRT メタデータには、リソースの概要とその説明が どのように使用するかを学習しました。これにより、コード生成は 自動的に推論コードが生成されます。たとえば、 Studio ML バインディング機能または LiteRT Android コード ジェネレータ。また、 カスタム推論パイプラインを構成します
ツールとライブラリ
LiteRT は、さまざまなユースケースに対応できるようにさまざまなツールとライブラリを提供 3 つのティアがあります。
Android コード ジェネレータでモデル インターフェースを生成する
必要な Android ラッパーコードを自動的に生成する方法は 2 つあります。 メタデータを含む LiteRT モデルの場合:
Android Studio ML Model Binding がツールで利用可能に を使用して、グラフィカル ユーザー インターフェースを介して LiteRT モデルをインポートできます。 行うことができます。Android Studio が自動的に モデル メタデータに基づいてラッパークラスを生成する。
LiteRT コード生成ツールは、実行可能なファイルです。 メタデータに基づいて自動的にモデル インターフェースを生成します。現在、 Java で Android をサポートします。ラッパーコードを使用すると
ByteBuffer
と直接やり取りします。代わりに、デベロッパーはBitmap
やRect
などの型付きオブジェクトを含む LiteRT モデル。 Android Studio のユーザーは、 Android Studio ML Binding。
LiteRT サポート ライブラリを使用してカスタム推論パイプラインを構築する
LiteRT サポート ライブラリ: クロス プラットフォーム ライブラリ モデル インターフェースのカスタマイズと推論パイプラインの構築に役立ちます。これは、 事前/事後を実行するさまざまなユーティリティ メソッドとデータ構造が含まれている データ処理とデータ変換の 3 つですまた、Terraform の Pod の振る舞いに合わせて TF.Image や TF.Text などの TensorFlow モジュールを使用すると、 ML モデルの構築と推論を行えます
メタデータを使用して事前トレーニング済みモデルを調べる
Kaggle モデルを参照して、 画像タスクとテキストタスクの両方のメタデータを含む事前トレーニング済みモデルをダウンロードするまた、 データを可視化する metadata です。