Fillimi i shpejtë për pajisjet e bazuara në Linux me Python

Përdorimi i LiteRT me Python është i shkëlqyeshëm për pajisjet e integruara të bazuara në Linux, të tilla si pajisjet Raspberry Pi dhe Coral me Edge TPU , ndër shumë të tjera.

Kjo faqe tregon se si mund të filloni të ekzekutoni modelet LiteRT me Python në vetëm pak minuta. Gjithçka që ju nevojitet është një model TensorFlow i konvertuar në TensorFlow Lite . (Nëse nuk keni ende një model të konvertuar, mund të eksperimentoni duke përdorur modelin e dhënë me shembullin e lidhur më poshtë.)

Rreth paketës së funksionimit LiteRT

Për të filluar me shpejtësi ekzekutimin e modeleve LiteRT me Python, mund të instaloni vetëm interpretuesin LiteRT, në vend të të gjitha paketave TensorFlow. Ne e quajmë këtë paketë të thjeshtuar Python tflite_runtime .

Paketa tflite_runtime është një fraksion i madhësisë së paketës së plotë tensorflow dhe përfshin kodin minimal të nevojshëm për të ekzekutuar konkluzionet me LiteRT - kryesisht klasën Interpreter Python. Kjo paketë e vogël është ideale kur gjithçka që dëshironi të bëni është të ekzekutoni modele .tflite dhe të shmangni humbjen e hapësirës në disk me bibliotekën e madhe TensorFlow.

Instaloni LiteRT për Python

Mund të instaloni në Linux me pip:

python3 -m pip install tflite-runtime

Platformat e mbështetura

Rrotat Python tflite-runtime janë të para-ndërtuara dhe të ofruara për këto platforma:

  • Linux armv7l (p.sh. Raspberry Pi 2, 3, 4 dhe Zero 2 me OS Raspberry Pi 32-bit)
  • Linux aarch64 (p.sh. Raspberry Pi 3, 4 që ekzekuton Debian ARM64)
  • Linux x86_64

Nëse dëshironi të ekzekutoni modelet LiteRT në platforma të tjera, ose duhet të përdorni paketën e plotë TensorFlow , ose të ndërtoni paketën tflite-runtime nga burimi .

Nëse po përdorni TensorFlow me TPU Coral Edge, duhet të ndiqni dokumentacionin e duhur të konfigurimit të Coral .

Drejtoni një përfundim duke përdorur tflite_runtime

Në vend që të importoni Interpreter nga moduli tensorflow , tani duhet ta importoni atë nga tflite_runtime .

Për shembull, pasi të instaloni paketën e mësipërme, kopjoni dhe ekzekutoni skedarin label_image.py . Ai (ndoshta) do të dështojë sepse nuk e keni të instaluar bibliotekën tensorflow . Për ta rregulluar atë, modifikoni këtë rresht të skedarit:

import tensorflow as tf

Pra, në vend të kësaj lexon:

import tflite_runtime.interpreter as tflite

Dhe pastaj ndryshoni këtë rresht:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Kështu lexohet:

interpreter = tflite.Interpreter(model_path=args.model_file)

Tani ekzekutoni përsëri label_image.py . Kjo është ajo! Tani jeni duke ekzekutuar modelet LiteRT.

Mësoni më shumë