Использование LiteRT с Python отлично подходит для встроенных устройств на базе Linux, таких как устройства Raspberry Pi и Coral с Edge TPU , среди многих других.
На этой странице показано, как начать запускать модели LiteRT с помощью Python всего за несколько минут. Все, что вам нужно, — это модель TensorFlow , конвертированная в TensorFlow Lite . (Если у вас еще нет преобразованной модели, вы можете поэкспериментировать, используя модель, представленную в примере, указанном ниже.)
О пакете среды выполнения LiteRT
Чтобы быстро начать выполнять модели LiteRT с помощью Python, вы можете установить только интерпретатор LiteRT вместо всех пакетов TensorFlow. Мы называем этот упрощенный пакет Python tflite_runtime
.
Пакет tflite_runtime
занимает лишь часть размера полного пакета tensorflow
и включает в себя минимальный код, необходимый для выполнения выводов с помощью LiteRT — в первую очередь класс Interpreter
Python. Этот небольшой пакет идеален, когда все, что вам нужно, — это выполнить модели .tflite
и не тратить зря дисковое пространство с помощью большой библиотеки TensorFlow.
Установите LiteRT для Python
Вы можете установить в Linux с помощью pip:
python3 -m pip install tflite-runtime
Поддерживаемые платформы
Колеса Python tflite-runtime
предварительно созданы и предназначены для следующих платформ:
- Linux Armv7l (например, Raspberry Pi 2, 3, 4 и Zero 2 под управлением 32-разрядной ОС Raspberry Pi)
- Linux aarch64 (например, Raspberry Pi 3, 4 под управлением Debian ARM64)
- Linux x86_64
Если вы хотите запускать модели LiteRT на других платформах, вам следует либо использовать полный пакет TensorFlow , либо собрать пакет tflite-runtime из исходного кода .
Если вы используете TensorFlow с Coral Edge TPU, вам следует вместо этого следовать соответствующей документации по установке Coral .
Запустите вывод, используя tflite_runtime
Вместо импорта Interpreter
из модуля tensorflow
теперь вам нужно импортировать его из tflite_runtime
.
Например, после установки вышеуказанного пакета скопируйте и запустите файл label_image.py
. Это (вероятно) потерпит неудачу, потому что у вас не установлена библиотека tensorflow
. Чтобы это исправить, отредактируйте эту строку файла:
import tensorflow as tf
Вместо этого он гласит:
import tflite_runtime.interpreter as tflite
А затем измените эту строку:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Итак, там написано:
interpreter = tflite.Interpreter(model_path=args.model_file)
Теперь снова запустите label_image.py
. Вот и все! Теперь вы выполняете модели LiteRT.
Узнать больше
Дополнительные сведения об API-
Interpreter
см. в статье Загрузка и запуск модели в Python .Если у вас Raspberry Pi, посмотрите серию видеороликов о том, как запустить обнаружение объектов на Raspberry Pi с помощью LiteRT.
Если вы используете ускоритель Coral ML, ознакомьтесь с примерами Coral на GitHub .
Чтобы преобразовать другие модели TensorFlow в LiteRT, прочтите о LiteRT Converter .
Если вы хотите собрать колесо
tflite_runtime
, прочтите «Сборка пакета колес Python LiteRT».