Penggunaan TensorFlow Lite dengan Python sangat cocok untuk perangkat tersemat berbasis Linux, seperti Rspberry Pi dan perangkat Coral dengan Edge TPU, di antara banyak lainnya.
Halaman ini menunjukkan cara mulai menjalankan model TensorFlow Lite dengan Python hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Lite. (Jika belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah.)
Tentang paket runtime TensorFlow Lite
Untuk mulai menjalankan model TensorFlow Lite dengan cepat dengan Python, Anda dapat menginstal penafsir TensorFlow Lite saja, bukan semua paket TensorFlow. Kita
memanggil paket Python yang disederhanakan ini tflite_runtime
.
Paket tflite_runtime
merupakan pecahan dari ukuran paket tensorflow
penuh dan mencakup kode minimum dasar yang diperlukan untuk menjalankan inferensi dengan TensorFlow Lite—terutama class Python Interpreter
. Paket kecil ini ideal jika Anda hanya perlu menjalankan model .tflite
dan menghindari pemborosan ruang disk dengan library TensorFlow yang besar.
Menginstal TensorFlow Lite untuk Python
Anda dapat menginstal di Linux dengan pip:
python3 -m pip install tflite-runtime
Platform yang didukung
Roda Python tflite-runtime
sudah dibuat dan disediakan untuk platform
berikut:
- Armv7l Linux (misalnya Raspberry Pi 2, 3, 4, dan Zero 2 yang menjalankan Raspberry Pi OS 32-bit)
- Linux aarch64 (misalnya Raspberry Pi 3, 4 yang menjalankan Debian ARM64)
- Linux x86_64
Jika ingin menjalankan model TensorFlow Lite di platform lain, Anda harus menggunakan paket TensorFlow lengkap, atau mem-build paket runtime tflite dari sumber.
Jika menggunakan TensorFlow dengan Coral Edge TPU, Anda harus mengikuti Dokumentasi penyiapan Coral yang sesuai.
Menjalankan inferensi menggunakan tflite_runtime
Daripada mengimpor Interpreter
dari modul tensorflow
, Anda kini harus
mengimpornya dari tflite_runtime
.
Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan file
label_image.py
. Library ini (mungkin) akan gagal karena Anda tidak menginstal library tensorflow
. Untuk memperbaikinya, edit baris file ini:
import tensorflow as tf
Jadi sebagai gantinya tertulis:
import tflite_runtime.interpreter as tflite
Dan kemudian ubah baris ini:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Jadi tertulis:
interpreter = tflite.Interpreter(model_path=args.model_file)
Sekarang jalankan label_image.py
lagi. Selesai. Anda sedang menjalankan model TensorFlow Lite.
Pelajari lebih lanjut
Untuk detail selengkapnya tentang
Interpreter
API, baca Memuat dan menjalankan model di Python.Jika Anda memiliki Raspberry Pi, tonton serial video tentang cara menjalankan deteksi objek di Raspberry Pi menggunakan TensorFlow Lite.
Jika Anda menggunakan akselerator ML Coral, lihat Contoh Coral di GitHub.
Untuk mengonversi model TensorFlow lainnya ke TensorFlow Lite, baca Pengonversi TensorFlow Lite.
Jika Anda ingin membangun roda
tflite_runtime
, baca Mem-build Paket Roda Python TensorFlow Lite