Përdorimi i LiteRT me Python është i shkëlqyeshëm për pajisjet e integruara të bazuara në Linux, të tilla si pajisjet Raspberry Pi dhe Coral me Edge TPU , ndër shumë të tjera.
Kjo faqe tregon se si mund të filloni të ekzekutoni modelet LiteRT me Python në vetëm pak minuta. Gjithçka që ju nevojitet është një model TensorFlow i konvertuar në TensorFlow Lite . (Nëse nuk keni ende një model të konvertuar, mund të eksperimentoni duke përdorur modelin e dhënë me shembullin e lidhur më poshtë.)
Rreth paketës së funksionimit LiteRT
 Për të filluar me shpejtësi ekzekutimin e modeleve LiteRT me Python, mund të instaloni vetëm interpretuesin LiteRT, në vend të të gjitha paketave TensorFlow. Ne e quajmë këtë paketë të thjeshtuar Python tflite_runtime .
 Paketa tflite_runtime është një fraksion i madhësisë së paketës së plotë tensorflow dhe përfshin kodin minimal të nevojshëm për të ekzekutuar konkluzionet me LiteRT - kryesisht klasën Interpreter Python. Kjo paketë e vogël është ideale kur gjithçka që dëshironi të bëni është të ekzekutoni modele .tflite dhe të shmangni humbjen e hapësirës në disk me bibliotekën e madhe TensorFlow.
Instaloni LiteRT për Python
Mund të instaloni në Linux me pip:
python3 -m pip install tflite-runtime
Platformat e mbështetura
 Rrotat Python tflite-runtime janë të para-ndërtuara dhe të ofruara për këto platforma:
- Linux armv7l (p.sh. Raspberry Pi 2, 3, 4 dhe Zero 2 me OS Raspberry Pi 32-bit)
- Linux aarch64 (p.sh. Raspberry Pi 3, 4 që ekzekuton Debian ARM64)
- Linux x86_64
Nëse dëshironi të ekzekutoni modelet LiteRT në platforma të tjera, ose duhet të përdorni paketën e plotë TensorFlow , ose të ndërtoni paketën tflite-runtime nga burimi .
Nëse po përdorni TensorFlow me TPU Coral Edge, duhet të ndiqni dokumentacionin e duhur të konfigurimit të Coral .
Drejtoni një përfundim duke përdorur tflite_runtime
 Në vend që të importoni Interpreter nga moduli tensorflow , tani duhet ta importoni atë nga tflite_runtime .
 Për shembull, pasi të instaloni paketën e mësipërme, kopjoni dhe ekzekutoni skedarin label_image.py . Ai (ndoshta) do të dështojë sepse nuk e keni të instaluar bibliotekën tensorflow . Për ta rregulluar atë, modifikoni këtë rresht të skedarit:
import tensorflow as tf
Pra, në vend të kësaj lexon:
import tflite_runtime.interpreter as tflite
Dhe pastaj ndryshoni këtë rresht:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Kështu lexohet:
interpreter = tflite.Interpreter(model_path=args.model_file)
 Tani ekzekutoni përsëri label_image.py . Kjo është ajo! Tani jeni duke ekzekutuar modelet LiteRT.
Mësoni më shumë
- Për më shumë detaje rreth - InterpreterAPI, lexoni Ngarkoni dhe ekzekutoni një model në Python .
- Nëse keni një Raspberry Pi, shikoni një seri video se si të ekzekutoni zbulimin e objekteve në Raspberry Pi duke përdorur LiteRT. 
- Nëse jeni duke përdorur një përshpejtues Coral ML, shikoni shembujt e Coral në GitHub . 
- Për të kthyer modele të tjera TensorFlow në LiteRT, lexoni për Konvertuesin LiteRT . 
- Nëse dëshironi të ndërtoni rrotën - tflite_runtime, lexoni Paketën e rrotave të Build LiteRT Python