メタデータを使用した LiteRT 推論

メタデータを使用したモデルの推論は、 わずか数行のコードを記述しました。LiteRT メタデータには、リソースの概要とその説明が どのように使用するかを学習しました。これにより、コード生成は 自動的に推論コードが生成されます。たとえば、 Studio ML バインディング機能または LiteRT Android コード ジェネレータ。また、 カスタム推論パイプラインを構成します

ツールとライブラリ

LiteRT は、さまざまなユースケースに対応できるようにさまざまなツールとライブラリを提供 3 つのティアがあります。

Android コード ジェネレータでモデル インターフェースを生成する

必要な Android ラッパーコードを自動的に生成する方法は 2 つあります。 メタデータを含む LiteRT モデルの場合:

  1. Android Studio ML Model Binding がツールで利用可能に を使用して、グラフィカル ユーザー インターフェースを介して LiteRT モデルをインポートできます。 行うことができます。Android Studio が自動的に モデル メタデータに基づいてラッパークラスを生成する。

  2. LiteRT コード生成ツールは、実行可能なファイルです。 メタデータに基づいて自動的にモデル インターフェースを生成します。現在、 Java で Android をサポートします。ラッパーコードを使用すると ByteBuffer と直接やり取りします。代わりに、デベロッパーは BitmapRect などの型付きオブジェクトを含む LiteRT モデル。 Android Studio のユーザーは、 Android Studio ML Binding

LiteRT サポート ライブラリを使用してカスタム推論パイプラインを構築する

LiteRT サポート ライブラリ: クロス プラットフォーム ライブラリ モデル インターフェースのカスタマイズと推論パイプラインの構築に役立ちます。これは、 事前/事後を実行するさまざまなユーティリティ メソッドとデータ構造が含まれている データ処理とデータ変換の 3 つですまた、Terraform の Pod の振る舞いに合わせて TF.Image や TF.Text などの TensorFlow モジュールを使用すると、 ML モデルの構築と推論を行えます

メタデータを使用して事前トレーニング済みモデルを調べる

Kaggle モデルを参照して、 画像タスクとテキストタスクの両方のメタデータを含む事前トレーニング済みモデルをダウンロードするまた、 データを可視化する metadata です。

LiteRT Support GitHub リポジトリ

LiteRT サポートの GitHub にアクセス その他の例やソースを できます。