מדריך למתחילים למכשירים מבוססי Linux עם Python

השימוש ב-TensorFlow Lite עם Python הוא מעולה במכשירים מוטמעים שמבוססים על Linux, כמו Raspberry Pi ומכשירי Coral עם Edge TPU, בין רבים אחרים.

הדף הזה מראה איך אפשר להתחיל להריץ מודלים של TensorFlow Lite עם Python תוך כמה דקות. כל מה שצריך הוא מודל TensorFlow שהומר ל-TensorFlow Lite. (אם עדיין לא המרתם מודל, תוכלו לערוך ניסוי ולהשתמש במודל שקיבלתם מהדוגמה שבקישור שבהמשך).

מידע על חבילת זמן הריצה של TensorFlow Lite

כדי להתחיל במהירות להפעיל מודלים של TensorFlow Lite באמצעות Python, אתם יכולים להתקין רק את רכיב התרגום של TensorFlow Lite, במקום את כל החבילות של TensorFlow. אנחנו קוראים לחבילת Python הפשוטה הזו tflite_runtime.

החבילה tflite_runtime היא חלק מגודל החבילה המלאה של tensorflow, והיא כוללת את הקוד המינימלי שנדרש כדי להריץ הסקת מסקנות עם TensorFlow Lite. בעיקר המחלקה Interpreter ב-Python. החבילה הקטנה הזו אידיאלית כשכל מה שרוצים לעשות הוא להפעיל מודלים של .tflite ולהימנע מבזבוז מקום בכונן עם ספריית TensorFlow הגדולה.

התקנת TensorFlow Lite ל-Python

אפשר להתקין ב-Linux באמצעות PIP:

python3 -m pip install tflite-runtime

פלטפורמות נתמכות

גלגלי Python tflite-runtime מוכנים מראש וניתנים לפלטפורמות הבאות:

  • Linux Armv7l (לדוגמה, Raspberry Pi 2, 3, 4 ו-0 Zero 2 שפועלת בהם מערכת ההפעלה Raspberry Pi OS ב-32 סיביות)
  • Linux aarch64 (למשל, Raspberry Pi 3 ו-4 שפועלת בהם Debian ARM64)
  • Linux x86_64

כדי להריץ מודלים של TensorFlow Lite בפלטפורמות אחרות, צריך להשתמש בחבילת TensorFlow המלאה או ליצור את חבילת tflite-runtime ממקור.

אם אתם משתמשים ב-TensorFlow עם TPU של Coral Edge, מומלץ לפעול לפי מסמכי התיעוד המתאימים להגדרת Coral Edge.

מריצים הסקה באמצעות tflite_runtime

במקום לייבא את Interpreter מהמודול tensorflow, עכשיו צריך לייבא אותו מ-tflite_runtime.

לדוגמה, אחרי שמתקינים את החבילה שלמעלה, מעתיקים ומפעילים את הקובץ label_image.py. זה כנראה ייכשל (כנראה) כי ספריית tensorflow לא מותקנת במכשיר. כדי לתקן את הבעיה, עורכים את השורה הזו בקובץ:

import tensorflow as tf

במקום זאת, הטקסט הוא:

import tflite_runtime.interpreter as tflite

ואז משנים את השורה הזו:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

כלומר:

interpreter = tflite.Interpreter(model_path=args.model_file)

עכשיו יש להריץ שוב את label_image.py. זהו! עכשיו מופעלים מודלים של TensorFlow Lite.

מידע נוסף