Mengimplementasikan Delegasi Khusus

Dengan Delegasi TensorFlow Lite, Anda dapat menjalankan model (sebagian atau keseluruhan) pada eksekutor lain. Mekanisme ini dapat memanfaatkan berbagai akselerator di perangkat seperti GPU atau Edge TPU (Tensor Processing Unit) untuk inferensi. Hal ini memberi developer metode yang fleksibel dan terpisah dari TFLite default untuk mempercepat inferensi.

Diagram di bawah meringkas delegasi, detail selengkapnya di bagian di bawah.

Delegasi TFLite

Kapan saya harus membuat delegasi Kustom?

TensorFlow Lite memiliki beragam delegasi untuk akselerator target seperti GPU, DSP, dan EdgeTPU.

Membuat delegasi Anda sendiri akan berguna dalam skenario berikut:

  • Anda ingin mengintegrasikan mesin inferensi ML baru yang tidak didukung oleh delegasi yang ada.
  • Anda memiliki akselerator hardware kustom yang meningkatkan runtime untuk skenario yang diketahui.
  • Anda mengembangkan pengoptimalan CPU (seperti penggabungan operator) yang dapat mempercepat model tertentu.

Bagaimana cara kerja delegasi?

Pertimbangkan grafik model sederhana seperti berikut, dan delegasi “MyDelegate” yang memiliki implementasi yang lebih cepat untuk operasi Konv2D dan Rata-rata.

Grafik asli

Setelah menerapkan “MyDelegate”, grafik TensorFlow Lite asli akan diperbarui seperti berikut:

Buat grafik dengan delegasi

Grafik di atas diperoleh saat TensorFlow Lite membagi grafik asli dengan mengikuti dua aturan:

  • Operasi tertentu yang dapat ditangani oleh delegasi dimasukkan ke dalam partisi sambil tetap memenuhi dependensi alur kerja komputasi asli di antara operasi.
  • Setiap partisi yang akan didelegasikan hanya memiliki node input dan output yang tidak ditangani oleh delegasi.

Setiap partisi yang ditangani oleh delegasi akan digantikan oleh node delegasi (juga dapat dipanggil sebagai kernel delegasi) dalam grafik asli yang mengevaluasi partisi tersebut pada panggilan pemanggilannya.

Bergantung pada modelnya, grafik akhir dapat berakhir dengan satu atau beberapa node. Terakhir, ini berarti beberapa operasi tidak didukung oleh delegasi. Secara umum, Anda tidak ingin beberapa partisi ditangani oleh delegasi, karena setiap kali Anda beralih dari delegasi ke grafik utama, akan ada overhead untuk meneruskan hasil dari subgrafik yang didelegasikan ke grafik utama yang dihasilkan karena salinan memori (misalnya, GPU ke CPU). Overhead tersebut dapat mengimbangi peningkatan performa, terutama jika ada banyak salinan memori.

Menerapkan Delegasi kustom Anda sendiri

Metode yang direkomendasikan untuk menambahkan delegasi adalah menggunakan SimpleDelegate API.

Untuk membuat delegasi baru, Anda harus mengimplementasikan 2 antarmuka dan menyediakan implementasi Anda sendiri untuk metode antarmuka.

1 - SimpleDelegateInterface

Class ini merepresentasikan kemampuan delegasi, operasi mana yang didukung, dan class factory untuk membuat kernel yang mengenkapsulasi grafik yang didelegasikan. Untuk mengetahui detail selengkapnya, lihat antarmuka yang ditentukan dalam file header C++ ini. Komentar dalam kode tersebut menjelaskan setiap API secara mendetail.

2 - SimpleDelegateKernelInterface

Class ini mengenkapsulasi logika untuk menginisialisasi / menyiapkan / dan menjalankan partisi yang didelegasikan.

API ini memiliki: (Lihat definisi)

  • Init(...): yang akan dipanggil sekali untuk melakukan inisialisasi satu kali.
  • Prepare(...): dipanggil untuk setiap instance berbeda dari node ini - ini terjadi jika Anda memiliki beberapa partisi yang didelegasikan. Biasanya Anda ingin melakukan alokasi memori di sini, karena ini akan dipanggil setiap kali tensor diubah ukurannya.
  • Memanggil(...): yang akan dipanggil untuk inferensi.

Contoh

Dalam contoh ini, Anda akan membuat delegasi yang sangat sederhana yang hanya dapat mendukung 2 jenis operasi (ADD) dan (SUB) dengan tensor float32 saja.

// MyDelegate implements the interface of SimpleDelegateInterface.
// This holds the Delegate capabilities.
class MyDelegate : public SimpleDelegateInterface {
 public:
  bool IsNodeSupportedByDelegate(const TfLiteRegistration* registration,
                                 const TfLiteNode* node,
                                 TfLiteContext* context) const override {
    // Only supports Add and Sub ops.
    if (kTfLiteBuiltinAdd != registration->builtin_code &&
        kTfLiteBuiltinSub != registration->builtin_code)
      return false;
    // This delegate only supports float32 types.
    for (int i = 0; i < node->inputs->size; ++i) {
      auto& tensor = context->tensors[node->inputs->data[i]];
      if (tensor.type != kTfLiteFloat32) return false;
    }
    return true;
  }

  TfLiteStatus Initialize(TfLiteContext* context) override { return kTfLiteOk; }

  const char* Name() const override {
    static constexpr char kName[] = "MyDelegate";
    return kName;
  }

  std::unique_ptr<SimpleDelegateKernelInterface> CreateDelegateKernelInterface()
      override {
    return std::make_unique<MyDelegateKernel>();
  }
};

Selanjutnya, buat kernel delegasi Anda sendiri dengan mewarisi dari SimpleDelegateKernelInterface

// My delegate kernel.
class MyDelegateKernel : public SimpleDelegateKernelInterface {
 public:
  TfLiteStatus Init(TfLiteContext* context,
                    const TfLiteDelegateParams* params) override {
    // Save index to all nodes which are part of this delegate.
    inputs_.resize(params->nodes_to_replace->size);
    outputs_.resize(params->nodes_to_replace->size);
    builtin_code_.resize(params->nodes_to_replace->size);
    for (int i = 0; i < params->nodes_to_replace->size; ++i) {
      const int node_index = params->nodes_to_replace->data[i];
      // Get this node information.
      TfLiteNode* delegated_node = nullptr;
      TfLiteRegistration* delegated_node_registration = nullptr;
      TF_LITE_ENSURE_EQ(
          context,
          context->GetNodeAndRegistration(context, node_index, &delegated_node,
                                          &delegated_node_registration),
          kTfLiteOk);
      inputs_[i].push_back(delegated_node->inputs->data[0]);
      inputs_[i].push_back(delegated_node->inputs->data[1]);
      outputs_[i].push_back(delegated_node->outputs->data[0]);
      builtin_code_[i] = delegated_node_registration->builtin_code;
    }
    return kTfLiteOk;
  }

  TfLiteStatus Prepare(TfLiteContext* context, TfLiteNode* node) override {
    return kTfLiteOk;
  }

  TfLiteStatus Eval(TfLiteContext* context, TfLiteNode* node) override {
    // Evaluate the delegated graph.
    // Here we loop over all the delegated nodes.
    // We know that all the nodes are either ADD or SUB operations and the
    // number of nodes equals ''inputs_.size()'' and inputs[i] is a list of
    // tensor indices for inputs to node ''i'', while outputs_[i] is the list of
    // outputs for node
    // ''i''. Note, that it is intentional we have simple implementation as this
    // is for demonstration.

    for (int i = 0; i < inputs_.size(); ++i) {
      // Get the node input tensors.
      // Add/Sub operation accepts 2 inputs.
      auto& input_tensor_1 = context->tensors[inputs_[i][0]];
      auto& input_tensor_2 = context->tensors[inputs_[i][1]];
      auto& output_tensor = context->tensors[outputs_[i][0]];
      TF_LITE_ENSURE_EQ(
          context,
          ComputeResult(context, builtin_code_[i], &input_tensor_1,
                        &input_tensor_2, &output_tensor),
          kTfLiteOk);
    }
    return kTfLiteOk;
  }

 private:
  // Computes the result of addition of 'input_tensor_1' and 'input_tensor_2'
  // and store the result in 'output_tensor'.
  TfLiteStatus ComputeResult(TfLiteContext* context, int builtin_code,
                             const TfLiteTensor* input_tensor_1,
                             const TfLiteTensor* input_tensor_2,
                             TfLiteTensor* output_tensor) {
    if (NumElements(input_tensor_1) != NumElements(input_tensor_2) ||
        NumElements(input_tensor_1) != NumElements(output_tensor)) {
      return kTfLiteDelegateError;
    }
    // This code assumes no activation, and no broadcasting needed (both inputs
    // have the same size).
    auto* input_1 = GetTensorData<float>(input_tensor_1);
    auto* input_2 = GetTensorData<float>(input_tensor_2);
    auto* output = GetTensorData<float>(output_tensor);
    for (int i = 0; i < NumElements(input_tensor_1); ++i) {
      if (builtin_code == kTfLiteBuiltinAdd)
        output[i] = input_1[i] + input_2[i];
      else
        output[i] = input_1[i] - input_2[i];
    }
    return kTfLiteOk;
  }

  // Holds the indices of the input/output tensors.
  // inputs_[i] is list of all input tensors to node at index 'i'.
  // outputs_[i] is list of all output tensors to node at index 'i'.
  std::vector<std::vector<int>> inputs_, outputs_;
  // Holds the builtin code of the ops.
  // builtin_code_[i] is the type of node at index 'i'
  std::vector<int> builtin_code_;
};


Menentukan tolok ukur dan mengevaluasi delegasi baru

TFLite memiliki serangkaian alat yang dapat Anda uji dengan cepat terhadap model TFLite.

  • Alat Tolok Ukur Model: Alat ini mengambil model TFLite, menghasilkan input acak, lalu berulang kali menjalankan model selama jumlah operasi yang ditentukan. Mencetak statistik latensi gabungan di akhir.
  • Alat Inferensi Diff: Untuk model tertentu, alat ini menghasilkan data Gaussian acak dan meneruskannya melalui dua penafsir TFLite yang berbeda, satu menjalankan kernel CPU thread tunggal dan yang lainnya menggunakan spesifikasi yang ditentukan pengguna. Alat ini mengukur perbedaan absolut antara tensor output dari setiap penafsir, per elemen. Alat ini juga dapat berguna untuk men-debug masalah akurasi.
  • Ada juga alat evaluasi khusus tugas, untuk klasifikasi gambar dan deteksi objek. Alat ini dapat ditemukan di sini

Selain itu, TFLite memiliki serangkaian besar pengujian kernel dan unit op yang dapat digunakan kembali untuk menguji delegasi baru dengan cakupan yang lebih luas, dan untuk memastikan jalur eksekusi TFLite reguler tidak rusak.

Agar dapat menggunakan kembali pengujian dan alat TFLite bagi delegasi baru, Anda dapat menggunakan salah satu dari dua opsi berikut:

Memilih pendekatan terbaik

Kedua pendekatan memerlukan beberapa perubahan seperti yang dijelaskan di bawah ini. Namun, pendekatan pertama akan menautkan delegasi secara statis dan memerlukan pembuatan ulang alat pengujian, benchmarking, dan evaluasi. Sebaliknya, metode kedua membuat delegasi sebagai library bersama dan mengharuskan Anda untuk mengekspos metode buat/hapus dari library bersama.

Akibatnya, mekanisme delegasi eksternal akan berfungsi dengan biner alat Tensorflow Lite bawaan TFLite. Namun, cara ini kurang eksplisit dan mungkin lebih rumit untuk disiapkan dalam pengujian integrasi otomatis. Gunakan pendekatan registrar delegasi untuk kejelasan yang lebih baik.

Opsi 1: Manfaatkan registrar delegasi

Registrar delegasi menyimpan daftar penyedia delegasi, yang masing-masing memberikan cara mudah untuk membuat delegasi TFLite berdasarkan flag command line, sehingga praktis untuk alat. Untuk menghubungkan delegasi baru ke semua alat Tensorflow Lite yang disebutkan di atas, buat penyedia delegasi baru terlebih dahulu, lalu buat beberapa perubahan pada aturan BUILD saja. Contoh lengkap proses integrasi ini ditampilkan di bawah (dan kode dapat ditemukan di sini).

Dengan asumsi Anda memiliki delegasi yang mengimplementasikan SimpleDelegate API, dan "C" API eksternal untuk membuat/menghapus delegasi 'dummy' ini seperti yang ditunjukkan di bawah:

// Returns default options for DummyDelegate.
DummyDelegateOptions TfLiteDummyDelegateOptionsDefault();

// Creates a new delegate instance that need to be destroyed with
// `TfLiteDummyDelegateDelete` when delegate is no longer used by TFLite.
// When `options` is set to `nullptr`, the above default values are used:
TfLiteDelegate* TfLiteDummyDelegateCreate(const DummyDelegateOptions* options);

// Destroys a delegate created with `TfLiteDummyDelegateCreate` call.
void TfLiteDummyDelegateDelete(TfLiteDelegate* delegate);

Untuk mengintegrasikan "DummyDelegate" dengan Alat Benchmark dan Alat Inferensi, tentukan DelegateProvider seperti di bawah ini:

class DummyDelegateProvider : public DelegateProvider {
 public:
  DummyDelegateProvider() {
    default_params_.AddParam("use_dummy_delegate",
                             ToolParam::Create<bool>(false));
  }

  std::vector<Flag> CreateFlags(ToolParams* params) const final;

  void LogParams(const ToolParams& params) const final;

  TfLiteDelegatePtr CreateTfLiteDelegate(const ToolParams& params) const final;

  std::string GetName() const final { return "DummyDelegate"; }
};
REGISTER_DELEGATE_PROVIDER(DummyDelegateProvider);

std::vector<Flag> DummyDelegateProvider::CreateFlags(ToolParams* params) const {
  std::vector<Flag> flags = {CreateFlag<bool>("use_dummy_delegate", params,
                                              "use the dummy delegate.")};
  return flags;
}

void DummyDelegateProvider::LogParams(const ToolParams& params) const {
  TFLITE_LOG(INFO) << "Use dummy test delegate : ["
                   << params.Get<bool>("use_dummy_delegate") << "]";
}

TfLiteDelegatePtr DummyDelegateProvider::CreateTfLiteDelegate(
    const ToolParams& params) const {
  if (params.Get<bool>("use_dummy_delegate")) {
    auto default_options = TfLiteDummyDelegateOptionsDefault();
    return TfLiteDummyDelegateCreateUnique(&default_options);
  }
  return TfLiteDelegatePtr(nullptr, [](TfLiteDelegate*) {});
}

Definisi aturan BUILD penting karena Anda perlu memastikan bahwa library selalu ditautkan dan tidak dihapus oleh pengoptimal.

#### The following are for using the dummy test delegate in TFLite tooling ####
cc_library(
    name = "dummy_delegate_provider",
    srcs = ["dummy_delegate_provider.cc"],
    copts = tflite_copts(),
    deps = [
        ":dummy_delegate",
        "//tensorflow/lite/tools/delegates:delegate_provider_hdr",
    ],
    alwayslink = 1, # This is required so the optimizer doesn't optimize the library away.
)

Sekarang tambahkan dua aturan wrapper ini ke dalam file BUILD untuk membuat versi Alat Benchmark dan Alat Inferensi, serta alat evaluasi lainnya, yang dapat berjalan dengan delegasi Anda sendiri.

cc_binary(
    name = "benchmark_model_plus_dummy_delegate",
    copts = tflite_copts(),
    linkopts = task_linkopts(),
    deps = [
        ":dummy_delegate_provider",
        "//tensorflow/lite/tools/benchmark:benchmark_model_main",
    ],
)

cc_binary(
    name = "inference_diff_plus_dummy_delegate",
    copts = tflite_copts(),
    linkopts = task_linkopts(),
    deps = [
        ":dummy_delegate_provider",
        "//tensorflow/lite/tools/evaluation/tasks:task_executor_main",
        "//tensorflow/lite/tools/evaluation/tasks/inference_diff:run_eval_lib",
    ],
)

cc_binary(
    name = "imagenet_classification_eval_plus_dummy_delegate",
    copts = tflite_copts(),
    linkopts = task_linkopts(),
    deps = [
        ":dummy_delegate_provider",
        "//tensorflow/lite/tools/evaluation/tasks:task_executor_main",
        "//tensorflow/lite/tools/evaluation/tasks/imagenet_image_classification:run_eval_lib",
    ],
)

cc_binary(
    name = "coco_object_detection_eval_plus_dummy_delegate",
    copts = tflite_copts(),
    linkopts = task_linkopts(),
    deps = [
        ":dummy_delegate_provider",
        "//tensorflow/lite/tools/evaluation/tasks:task_executor_main",
        "//tensorflow/lite/tools/evaluation/tasks/coco_object_detection:run_eval_lib",
    ],
)

Anda juga dapat menghubungkan penyedia delegasi ini ke pengujian kernel TFLite seperti yang dijelaskan di sini.

Opsi 2: Manfaatkan delegasi eksternal

Sebagai alternatif, pertama-tama Anda membuat adaptor delegasi eksternal external_delegate_adaptor.cc seperti yang ditunjukkan di bawah. Perhatikan bahwa pendekatan ini sedikit kurang direkomendasikan dibandingkan dengan Opsi 1 seperti yang telah disebutkan di atas.

TfLiteDelegate* CreateDummyDelegateFromOptions(char** options_keys,
                                               char** options_values,
                                               size_t num_options) {
  DummyDelegateOptions options = TfLiteDummyDelegateOptionsDefault();

  // Parse key-values options to DummyDelegateOptions.
  // You can achieve this by mimicking them as command-line flags.
  std::unique_ptr<const char*> argv =
      std::unique_ptr<const char*>(new const char*[num_options + 1]);
  constexpr char kDummyDelegateParsing[] = "dummy_delegate_parsing";
  argv.get()[0] = kDummyDelegateParsing;

  std::vector<std::string> option_args;
  option_args.reserve(num_options);
  for (int i = 0; i < num_options; ++i) {
    option_args.emplace_back("--");
    option_args.rbegin()->append(options_keys[i]);
    option_args.rbegin()->push_back('=');
    option_args.rbegin()->append(options_values[i]);
    argv.get()[i + 1] = option_args.rbegin()->c_str();
  }

  // Define command-line flags.
  // ...
  std::vector<tflite::Flag> flag_list = {
      tflite::Flag::CreateFlag(...),
      ...,
      tflite::Flag::CreateFlag(...),
  };

  int argc = num_options + 1;
  if (!tflite::Flags::Parse(&argc, argv.get(), flag_list)) {
    return nullptr;
  }

  return TfLiteDummyDelegateCreate(&options);
}

#ifdef __cplusplus
extern "C" {
#endif  // __cplusplus

// Defines two symbols that need to be exported to use the TFLite external
// delegate. See tensorflow/lite/delegates/external for details.
TFL_CAPI_EXPORT TfLiteDelegate* tflite_plugin_create_delegate(
    char** options_keys, char** options_values, size_t num_options,
    void (*report_error)(const char*)) {
  return tflite::tools::CreateDummyDelegateFromOptions(
      options_keys, options_values, num_options);
}

TFL_CAPI_EXPORT void tflite_plugin_destroy_delegate(TfLiteDelegate* delegate) {
  TfLiteDummyDelegateDelete(delegate);
}

#ifdef __cplusplus
}
#endif  // __cplusplus

Sekarang, buat target BUILD yang sesuai untuk membangun library dinamis seperti yang ditunjukkan di bawah:

cc_binary(
    name = "dummy_external_delegate.so",
    srcs = [
        "external_delegate_adaptor.cc",
    ],
    linkshared = 1,
    linkstatic = 1,
    deps = [
        ":dummy_delegate",
        "//tensorflow/lite/c:common",
        "//tensorflow/lite/tools:command_line_flags",
        "//tensorflow/lite/tools:logging",
    ],
)

Setelah file .so delegasi eksternal ini dibuat, Anda dapat mem-build biner atau menggunakan biner yang sudah dibuat sebelumnya untuk dijalankan dengan delegasi baru selama biner tersebut ditautkan dengan library external_delegate_provider yang mendukung flag command line seperti yang dijelaskan di sini. Catatan: penyedia delegasi eksternal ini telah ditautkan ke biner pengujian dan alat yang sudah ada.

Lihat deskripsi di sini untuk mendapatkan ilustrasi tentang cara mengukur delegasi contoh melalui pendekatan delegasi eksternal ini. Anda dapat menggunakan perintah serupa untuk alat pengujian dan evaluasi yang disebutkan sebelumnya.

Perlu diperhatikan bahwa delegasi eksternal adalah implementasi C++ yang sesuai dari delegasi di binding Tensorflow Lite Python seperti yang ditampilkan di sini. Oleh karena itu, library adaptor delegasi eksternal dinamis yang dibuat di sini dapat langsung digunakan dengan Tensorflow Lite Python API.

Resource

OS ARCHES BINARY_NAME
Linux x86_64
grup
aarch64
Android grup
aarch64