Panduan memulai untuk perangkat berbasis Linux dengan Python

Menggunakan LiteRT dengan Python sangat bagus untuk perangkat tersemat berbasis Linux, seperti Raspberry Pi dan Perangkat Coral dengan Edge TPU, di antara banyak lainnya.

Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model LiteRT dengan Python di hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Ringan. (Jika belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)

Tentang paket runtime LiteRT

Untuk mulai menjalankan model LiteRT dengan cepat dengan Python, Anda dapat menginstal hanya penafsir LiteRT, bukan semua paket TensorFlow. Rab panggil paket Python yang disederhanakan ini, tflite_runtime.

Ukuran paket tflite_runtime sepersekian ukuran penuh tensorflow paket dan mencakup kode minimum yang diperlukan untuk menjalankan inferensi dengan LiteRT—terutama Interpreter class Python. Paket kecil ini ideal ketika yang ingin Anda lakukan adalah menjalankan .tflite model dan hindari pemborosan kapasitas disk dengan library TensorFlow yang besar.

Menginstal LiteRT untuk Python

Anda dapat menginstal di Linux dengan pip:

python3 -m pip install tflite-runtime

Platform yang didukung

Roda Python tflite-runtime sudah dibuat sebelumnya dan disediakan untuk platform:

  • Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32 bit)
  • Linux aarch64 (misalnya Raspberry Pi 3, 4 yang menjalankan Debian ARM64)
  • Linux x86_64

Jika ingin menjalankan model LiteRT di platform lain, Anda harus menggunakan paket TensorFlow lengkap, atau build paket runtime tflite dari sumber.

Jika Anda menggunakan TensorFlow dengan Coral Edge TPU, Anda harus sebagai gantinya, ikuti dokumentasi penyiapan Coral yang sesuai.

Menjalankan inferensi menggunakan tflite_runtime

Daripada mengimpor Interpreter dari modul tensorflow, Anda sekarang harus impor dari tflite_runtime.

Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan label_image.py . Tindakan ini (mungkin) akan gagal karena Anda tidak memiliki library tensorflow terinstal. Untuk memperbaikinya, edit baris file berikut:

import tensorflow as tf

Jadi tertulis:

import tflite_runtime.interpreter as tflite

Kemudian, ubah baris ini:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Jadi berbunyi:

interpreter = tflite.Interpreter(model_path=args.model_file)

Sekarang jalankan label_image.py lagi. Selesai. Anda sedang menjalankan LiteRT jaringan.

Pelajari lebih lanjut