Përdorimi i LiteRT me Python është i shkëlqyeshëm për pajisjet e integruara të bazuara në Linux, të tilla si pajisjet Raspberry Pi dhe Coral me Edge TPU , ndër shumë të tjera.
Kjo faqe tregon se si mund të filloni të ekzekutoni modelet LiteRT me Python në vetëm pak minuta. Gjithçka që ju nevojitet është një model TensorFlow i konvertuar në TensorFlow Lite . (Nëse nuk keni ende një model të konvertuar, mund të eksperimentoni duke përdorur modelin e dhënë me shembullin e lidhur më poshtë.)
Rreth paketës së funksionimit LiteRT
Për të filluar me shpejtësi ekzekutimin e modeleve LiteRT me Python, mund të instaloni vetëm interpretuesin LiteRT, në vend të të gjitha paketave TensorFlow. Ne e quajmë këtë paketë të thjeshtuar Python tflite_runtime
.
Paketa tflite_runtime
është një fraksion i madhësisë së paketës së plotë tensorflow
dhe përfshin kodin minimal të nevojshëm për të ekzekutuar konkluzionet me LiteRT - kryesisht klasën Interpreter
Python. Kjo paketë e vogël është ideale kur gjithçka që dëshironi të bëni është të ekzekutoni modele .tflite
dhe të shmangni humbjen e hapësirës në disk me bibliotekën e madhe TensorFlow.
Instaloni LiteRT për Python
Mund të instaloni në Linux me pip:
python3 -m pip install tflite-runtime
Platformat e mbështetura
Rrotat Python tflite-runtime
janë të para-ndërtuara dhe të ofruara për këto platforma:
- Linux armv7l (p.sh. Raspberry Pi 2, 3, 4 dhe Zero 2 me OS Raspberry Pi 32-bit)
- Linux aarch64 (p.sh. Raspberry Pi 3, 4 që ekzekuton Debian ARM64)
- Linux x86_64
Nëse dëshironi të ekzekutoni modelet LiteRT në platforma të tjera, ose duhet të përdorni paketën e plotë TensorFlow , ose të ndërtoni paketën tflite-runtime nga burimi .
Nëse po përdorni TensorFlow me TPU Coral Edge, duhet të ndiqni dokumentacionin e duhur të konfigurimit të Coral .
Drejtoni një përfundim duke përdorur tflite_runtime
Në vend që të importoni Interpreter
nga moduli tensorflow
, tani duhet ta importoni atë nga tflite_runtime
.
Për shembull, pasi të instaloni paketën e mësipërme, kopjoni dhe ekzekutoni skedarin label_image.py
. Ai (ndoshta) do të dështojë sepse nuk e keni të instaluar bibliotekën tensorflow
. Për ta rregulluar atë, modifikoni këtë rresht të skedarit:
import tensorflow as tf
Pra, në vend të kësaj lexon:
import tflite_runtime.interpreter as tflite
Dhe pastaj ndryshoni këtë rresht:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Kështu lexohet:
interpreter = tflite.Interpreter(model_path=args.model_file)
Tani ekzekutoni përsëri label_image.py
. Kjo është ajo! Tani jeni duke ekzekutuar modelet LiteRT.
Mësoni më shumë
Për më shumë detaje rreth
Interpreter
API, lexoni Ngarkoni dhe ekzekutoni një model në Python .Nëse keni një Raspberry Pi, shikoni një seri video se si të ekzekutoni zbulimin e objekteve në Raspberry Pi duke përdorur LiteRT.
Nëse jeni duke përdorur një përshpejtues Coral ML, shikoni shembujt e Coral në GitHub .
Për të kthyer modele të tjera TensorFlow në LiteRT, lexoni për Konvertuesin LiteRT .
Nëse dëshironi të ndërtoni rrotën
tflite_runtime
, lexoni Paketën e rrotave të Build LiteRT Python