Việc sử dụng TensorFlow Lite với Python rất phù hợp với các thiết bị được nhúng dựa trên Linux, chẳng hạn như R Phục sinh Pi và các thiết bị san hô có Edge TPU, cùng nhiều thiết bị khác.
Trang này cho biết cách bắt đầu chạy các mô hình TensorFlow Lite bằng Python chỉ trong vài phút. Tất cả những gì bạn cần là một mô hình TensorFlow được chuyển đổi thành TensorFlow Lite. (Nếu chưa chuyển đổi mô hình, bạn có thể thử nghiệm bằng mô hình được cung cấp trong ví dụ qua đường liên kết bên dưới.)
Giới thiệu về gói thời gian chạy TensorFlow Lite
Để nhanh chóng bắt đầu thực thi các mô hình TensorFlow Lite bằng Python, bạn có thể chỉ cài đặt
trình thông dịch TensorFlow Lite thay vì tất cả các gói TensorFlow. Chúng tôi gọi gói Python đơn giản này là tflite_runtime
.
Gói tflite_runtime
là một phần nhỏ kích thước của gói tensorflow
đầy đủ và bao gồm mã tối thiểu cần thiết để chạy dự đoán bằng TensorFlow Lite – chủ yếu là lớp Python Interpreter
. Gói nhỏ này là lựa chọn lý tưởng khi bạn chỉ muốn thực thi các mô hình .tflite
và tránh lãng phí dung lượng ổ đĩa với thư viện TensorFlow lớn.
Cài đặt TensorFlow Lite cho Python
Bạn có thể cài đặt trên Linux bằng pip:
python3 -m pip install tflite-runtime
Nền tảng được hỗ trợ
Bánh xe Python tflite-runtime
được tạo sẵn và cung cấp cho các nền tảng sau:
- Linux armv7l (ví dụ: Rspberry Pi 2, 3, 4 và Zero 2 đang chạy hệ điều hành Raffberry Pi 32 bit)
- Linux aarch64 (ví dụ: Rspberry Pi 3, 4 đang chạy Debian ARM64)
- Linux x86_64
Nếu muốn chạy mô hình TensorFlow Lite trên các nền tảng khác, bạn nên sử dụng gói TensorFlow đầy đủ hoặc tạo gói tflite-runtime từ nguồn.
Nếu đang sử dụng TensorFlow với TPU san hô, bạn nên làm theo tài liệu thiết lập san hô thích hợp.
Chạy dự đoán bằng tflite_runtime
Thay vì nhập Interpreter
từ mô-đun tensorflow
, giờ đây, bạn cần nhập mô-đun này từ tflite_runtime
.
Ví dụ: sau khi cài đặt gói ở trên, hãy sao chép và chạy tệp label_image.py
. Thao tác này (có thể) sẽ không thành công vì bạn chưa cài đặt thư viện tensorflow
. Để khắc phục lỗi này, hãy chỉnh sửa dòng này của tệp:
import tensorflow as tf
Do đó, cửa sổ sẽ đọc:
import tflite_runtime.interpreter as tflite
Sau đó, thay đổi dòng này:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Do đó, nó có nội dung:
interpreter = tflite.Interpreter(model_path=args.model_file)
Bây giờ, hãy chạy lại label_image.py
. Vậy là xong! Bạn đang thực thi các mô hình TensorFlow Lite.
Tìm hiểu thêm
Để biết thêm thông tin chi tiết về
Interpreter
API, vui lòng đọc bài viết Tải và chạy một mô hình bằng Python.Nếu bạn sở hữu Rappberry Pi, hãy xem loạt video về cách chạy tính năng phát hiện đối tượng trên Rspberry Pi bằng cách sử dụng TensorFlow Lite.
Nếu bạn đang sử dụng trình tăng tốc học máy của san hô, hãy xem Các ví dụ về san hô trên GitHub.
Để chuyển đổi các mô hình TensorFlow khác thành TensorFlow Lite, hãy đọc về Trình chuyển đổi TensorFlow Lite.
Nếu bạn muốn tạo bánh xe
tflite_runtime
, hãy đọc bài viết Tạo Gói bánh xe Python Lite của TensorFlow Lite