Menggunakan LiteRT dengan Python sangat bagus untuk perangkat tersemat berbasis Linux, seperti Raspberry Pi dan Perangkat Coral dengan Edge TPU, di antara banyak lainnya.
Halaman ini menunjukkan bagaimana Anda dapat mulai menjalankan model LiteRT dengan Python di hanya dalam beberapa menit. Yang Anda butuhkan hanyalah model TensorFlow yang dikonversi ke TensorFlow Ringan. (Jika belum memiliki model yang dikonversi, Anda dapat bereksperimen menggunakan model yang disediakan dengan contoh yang ditautkan di bawah ini.)
Tentang paket runtime LiteRT
Untuk mulai menjalankan model LiteRT dengan cepat dengan Python, Anda dapat menginstal
hanya penafsir LiteRT, bukan semua paket TensorFlow. Rab
panggil paket Python yang disederhanakan ini, tflite_runtime
.
Ukuran paket tflite_runtime
sepersekian ukuran penuh tensorflow
paket dan mencakup kode minimum yang
diperlukan untuk menjalankan inferensi dengan
LiteRT—terutama
Interpreter
class Python. Paket kecil ini ideal ketika yang ingin Anda lakukan adalah menjalankan
.tflite
model dan hindari pemborosan kapasitas disk dengan library TensorFlow yang besar.
Menginstal LiteRT untuk Python
Anda dapat menginstal di Linux dengan pip:
python3 -m pip install tflite-runtime
Platform yang didukung
Roda Python tflite-runtime
sudah dibuat sebelumnya dan disediakan untuk
platform:
- Linux armv7l (misalnya Raspberry Pi 2, 3, 4 dan Zero 2 yang menjalankan Raspberry Pi OS 32 bit)
- Linux aarch64 (misalnya Raspberry Pi 3, 4 yang menjalankan Debian ARM64)
- Linux x86_64
Jika ingin menjalankan model LiteRT di platform lain, Anda harus menggunakan paket TensorFlow lengkap, atau build paket runtime tflite dari sumber.
Jika Anda menggunakan TensorFlow dengan Coral Edge TPU, Anda harus sebagai gantinya, ikuti dokumentasi penyiapan Coral yang sesuai.
Menjalankan inferensi menggunakan tflite_runtime
Daripada mengimpor Interpreter
dari modul tensorflow
, Anda sekarang harus
impor dari tflite_runtime
.
Misalnya, setelah Anda menginstal paket di atas, salin dan jalankan
label_image.py
. Tindakan ini (mungkin) akan gagal karena Anda tidak memiliki library tensorflow
terinstal. Untuk memperbaikinya, edit baris file berikut:
import tensorflow as tf
Jadi tertulis:
import tflite_runtime.interpreter as tflite
Kemudian, ubah baris ini:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Jadi berbunyi:
interpreter = tflite.Interpreter(model_path=args.model_file)
Sekarang jalankan label_image.py
lagi. Selesai. Anda sedang menjalankan LiteRT
jaringan.
Pelajari lebih lanjut
Untuk detail selengkapnya tentang
Interpreter
API, baca Memuat dan menjalankan model di Python.Jika Anda memiliki Raspberry Pi, lihat serial video tentang cara menjalankan deteksi objek di Raspberry Pi menggunakan LiteRT.
Jika Anda menggunakan akselerator Coral ML, lihat Contoh karang di GitHub.
Untuk mengonversi model TensorFlow lainnya ke LiteRT, baca tentang Konverter LiteRT.
Jika Anda ingin membuat roda
tflite_runtime
, baca Membuat Paket Wheel Python LiteRT