このドキュメントでは、Terraform を使用してモデルをトレーニングし、推論を実行する方法について説明します。 マイクロコントローラで動作します。
Hello World の例
「 Hello World 例は、LiteRT を使用する基本的な方法を示すことを目的としています。 マイクロコントローラ用です正弦関数を再現するモデルをトレーニングして実行します。 つまり、単一の数値を入力として受け取り、数値の 正弦値。コンテナ イメージにデプロイされると、 その予測を使用して LED を点滅させたり、 作成します。
エンドツーエンドのワークフローは、次の手順で構成されます。
- モデルのトレーニング(Python): トレーニングと変換を行う Python ファイル オンデバイスで使用するためにモデルを最適化します
- 推論を実行する(C++ 17): C++ ライブラリを使用して、モデルの推論を実行します。
対応デバイスを入手する
使用するサンプル アプリケーションは、次のデバイスでテスト済みです。
- Arduino Nano 33 BLE Sense (Arduino IDE を使用)
- SparkFun Edge(直接ビルド) ソースからのデータ)
- STM32F746 ディスカバリ キット (Mbed を使用)
- Adafruit EdgeBadge(Arduino 使用) IDE)
- Adafruit LiteRT for Microcontrollers Kit (Arduino IDE を使用)
- Adafruit Circuit Playground Bluefruit (Arduino IDE を使用)
- Espressif ESP32-DevKitC (ESP IDF を使用)
- Espressif ESP-EYE (ESP IDF を使用)
対応プラットフォームについて詳しくは、以下をご覧ください。 マイクロコントローラ向け LiteRT。
モデルのトレーニング
使用 train.py 正弦波認識のための Hello World モデル トレーニング用
実行: bazel build tensorflow/lite/micro/examples/hello_world:train
bazel-bin/tensorflow/lite/micro/examples/hello_world/train --save_tf_model
--save_dir=/tmp/model_created/
推論を実行する
デバイスでモデルを実行するために、
README.md
:
以降のセクションでは、この例における
evaluate_test.cc
単体テストでは、LiteRT を使用して推論を実行する方法を
マイクロコントローラ。モデルを読み込み、推論を数回実行します。
1. ライブラリ ヘッダーを含める
マイクロコントローラ用 LiteRT ライブラリを使用するには、 次のヘッダー ファイルが含まれます。
#include "tensorflow/lite/micro/micro_mutable_op_resolver.h"
#include "tensorflow/lite/micro/micro_error_reporter.h"
#include "tensorflow/lite/micro/micro_interpreter.h"
#include "tensorflow/lite/schema/schema_generated.h"
#include "tensorflow/lite/version.h"
micro_mutable_op_resolver.h
は、インタープリタがモデルを実行するために使用するオペレーションを提供します。micro_error_reporter.h
デバッグ情報が出力されます。micro_interpreter.h
モデルを読み込んで実行するためのコードが含まれています。schema_generated.h
LiteRT のスキーマが含まれています。FlatBuffer
モデルのファイル形式。version.h
LiteRT スキーマのバージョニング情報を提供します。
2. モデルヘッダーを含める
LiteRT for Microcontrollers インタープリタは、モデルが
C++ 配列として提供されます。モデルは、model.h
ファイルと model.cc
ファイルで定義されています。
このヘッダーは次の行に含まれています。
#include "tensorflow/lite/micro/examples/hello_world/model.h"
3. 単体テスト フレームワークのヘッダーを含める
単体テストを作成するには、Android Studio 用の LiteRT マイクロコントローラの単体テスト フレームワークには、次の行を追加します。
#include "tensorflow/lite/micro/testing/micro_test.h"
テストの定義には、次のマクロを使用します。
TF_LITE_MICRO_TESTS_BEGIN
TF_LITE_MICRO_TEST(LoadModelAndPerformInference) {
. // add code here
.
}
TF_LITE_MICRO_TESTS_END
次に、上記のマクロに含まれているコードについて説明します。
4. ロギングの設定
ロギングを設定するために、ポインタを使用して tflite::ErrorReporter
ポインタを作成します。
tflite::MicroErrorReporter
インスタンスに接続します。
tflite::MicroErrorReporter micro_error_reporter;
tflite::ErrorReporter* error_reporter = µ_error_reporter;
この変数はインタープリタに渡され、
できます。マイクロコントローラは多くの場合、ロギング用のさまざまなメカニズムを備えているため、
tflite::MicroErrorReporter
の実装は、カスタマイズするように設計されています。
ダウンロードします
5. モデルを読み込む
次のコードでは、char
配列のデータを使用してモデルをインスタンス化しています。
g_model
(model.h
で宣言)。次にモデルをチェックして
スキーマ バージョンは、使用しているバージョンと互換性があります。
const tflite::Model* model = ::tflite::GetModel(g_model);
if (model->version() != TFLITE_SCHEMA_VERSION) {
TF_LITE_REPORT_ERROR(error_reporter,
"Model provided is schema version %d not equal "
"to supported version %d.\n",
model->version(), TFLITE_SCHEMA_VERSION);
}
6. オペレーション リゾルバのインスタンス化
MicroMutableOpResolver
宣言します。これはインタープリタが登録と
モデルで使用されるオペレーションにアクセスできます。
using HelloWorldOpResolver = tflite::MicroMutableOpResolver<1>;
TfLiteStatus RegisterOps(HelloWorldOpResolver& op_resolver) {
TF_LITE_ENSURE_STATUS(op_resolver.AddFullyConnected());
return kTfLiteOk;
MicroMutableOpResolver
には、数を示すテンプレート パラメータが必要です。
登録されるオペレーションの数を表します。RegisterOps
関数が op を登録する
確認します。
HelloWorldOpResolver op_resolver;
TF_LITE_ENSURE_STATUS(RegisterOps(op_resolver));
7. メモリの割り当て
入出力に一定量のメモリを事前に割り当て、
中間配列も参照できますこれは、サイズの uint8_t
配列として提供されます。
tensor_arena_size
:
const int tensor_arena_size = 2 * 1024;
uint8_t tensor_arena[tensor_arena_size];
必要なサイズは、使用しているモデルによって異なり、 決定できます
8. インタープリタをインスタンス化する
tflite::MicroInterpreter
インスタンスを作成し、変数を渡します。
以前に作成されたもの:
tflite::MicroInterpreter interpreter(model, resolver, tensor_arena,
tensor_arena_size, error_reporter);
9. テンソルを割り当てる
インタープリタに、tensor_arena
からメモリを割り当てるように
モデルのテンソル:
interpreter.AllocateTensors();
10. 入力形状を検証する
MicroInterpreter
インスタンスは、モデルのモデルへのポインタを提供できます。
.input(0)
を呼び出して入力テンソルを作成します。ここで、0
は 1 つ目(その 1 つ)を表します。
入力テンソル:
// Obtain a pointer to the model's input tensor
TfLiteTensor* input = interpreter.input(0);
次に、このテンソルを検査して、その形状と型が意図したとおりであることを確認します。 期待:
// Make sure the input has the properties we expect
TF_LITE_MICRO_EXPECT_NE(nullptr, input);
// The property "dims" tells us the tensor's shape. It has one element for
// each dimension. Our input is a 2D tensor containing 1 element, so "dims"
// should have size 2.
TF_LITE_MICRO_EXPECT_EQ(2, input->dims->size);
// The value of each element gives the length of the corresponding tensor.
// We should expect two single element tensors (one is contained within the
// other).
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
// The input is a 32 bit floating point value
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, input->type);
列挙値 kTfLiteFloat32
は、LiteRT のいずれかへの参照です。
され、Chronicle で定義されます。
common.h
。
11. 入力値を指定する
モデルに入力を提供するには、入力テンソルの内容を次のように設定します。 次のようになります。
input->data.f[0] = 0.;
ここでは、0
を表す浮動小数点値を入力します。
12. モデルを実行する
モデルを実行するには、tflite::MicroInterpreter
で Invoke()
を呼び出します。
instance:
TfLiteStatus invoke_status = interpreter.Invoke();
if (invoke_status != kTfLiteOk) {
TF_LITE_REPORT_ERROR(error_reporter, "Invoke failed\n");
}
戻り値の TfLiteStatus
から、実行が成功したかどうかを判定できます。
成功です。TfLiteStatus
に指定可能な値。定義は次のとおりです。
common.h
,
kTfLiteOk
と kTfLiteError
です。
次のコードは、値が kTfLiteOk
(推論が
正常に実行されます
TF_LITE_MICRO_EXPECT_EQ(kTfLiteOk, invoke_status);
13. 出力を取得する
モデルの出力テンソルは、output(0)
を
tflite::MicroInterpreter
(0
は最初の(唯一の)出力を表します)
テンソルです。
この例では、モデルの出力は単一の浮動小数点値で、 を 2 次元テンソルに格納します。
TfLiteTensor* output = interpreter.output(0);
TF_LITE_MICRO_EXPECT_EQ(2, output->dims->size);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[0]);
TF_LITE_MICRO_EXPECT_EQ(1, input->dims->data[1]);
TF_LITE_MICRO_EXPECT_EQ(kTfLiteFloat32, output->type);
出力テンソルから直接値を読み取って、それが何であるかをアサートできます。 次のことが期待されます。
// Obtain the output value from the tensor
float value = output->data.f[0];
// Check that the output value is within 0.05 of the expected value
TF_LITE_MICRO_EXPECT_NEAR(0., value, 0.05);
14. 推論を再実行する
コードの残りの部分では、推論をさらに数回実行します。各インスタンスで、 入力テンソルに値を割り当て、インタープリタを呼び出して 出力テンソルから計算されます。
input->data.f[0] = 1.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.841, value, 0.05);
input->data.f[0] = 3.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(0.141, value, 0.05);
input->data.f[0] = 5.;
interpreter.Invoke();
value = output->data.f[0];
TF_LITE_MICRO_EXPECT_NEAR(-0.959, value, 0.05);