השימוש ב-TensorFlow Lite עם Python הוא מעולה במכשירים מוטמעים שמבוססים על Linux, כמו Raspberry Pi ומכשירי Coral עם Edge TPU, בין רבים אחרים.
הדף הזה מראה איך אפשר להתחיל להריץ מודלים של TensorFlow Lite עם Python תוך כמה דקות. כל מה שצריך הוא מודל TensorFlow שהומר ל-TensorFlow Lite. (אם עדיין לא המרתם מודל, תוכלו לערוך ניסוי ולהשתמש במודל שקיבלתם מהדוגמה שבקישור שבהמשך).
מידע על חבילת זמן הריצה של TensorFlow Lite
כדי להתחיל במהירות להפעיל מודלים של TensorFlow Lite באמצעות Python, אתם יכולים להתקין רק את רכיב התרגום של TensorFlow Lite, במקום את כל החבילות של TensorFlow. אנחנו קוראים לחבילת Python הפשוטה הזו tflite_runtime
.
החבילה tflite_runtime
היא חלק מגודל החבילה המלאה של tensorflow
, והיא כוללת את הקוד המינימלי שנדרש כדי להריץ הסקת מסקנות עם TensorFlow Lite. בעיקר המחלקה Interpreter
ב-Python. החבילה הקטנה הזו אידיאלית כשכל מה שרוצים לעשות הוא להפעיל מודלים של .tflite
ולהימנע מבזבוז מקום בכונן עם ספריית TensorFlow הגדולה.
התקנת TensorFlow Lite ל-Python
אפשר להתקין ב-Linux באמצעות PIP:
python3 -m pip install tflite-runtime
פלטפורמות נתמכות
גלגלי Python tflite-runtime
מוכנים מראש וניתנים לפלטפורמות הבאות:
- Linux Armv7l (לדוגמה, Raspberry Pi 2, 3, 4 ו-0 Zero 2 שפועלת בהם מערכת ההפעלה Raspberry Pi OS ב-32 סיביות)
- Linux aarch64 (למשל, Raspberry Pi 3 ו-4 שפועלת בהם Debian ARM64)
- Linux x86_64
כדי להריץ מודלים של TensorFlow Lite בפלטפורמות אחרות, צריך להשתמש בחבילת TensorFlow המלאה או ליצור את חבילת tflite-runtime ממקור.
אם אתם משתמשים ב-TensorFlow עם TPU של Coral Edge, מומלץ לפעול לפי מסמכי התיעוד המתאימים להגדרת Coral Edge.
מריצים הסקה באמצעות tflite_runtime
במקום לייבא את Interpreter
מהמודול tensorflow
, עכשיו צריך לייבא אותו מ-tflite_runtime
.
לדוגמה, אחרי שמתקינים את החבילה שלמעלה, מעתיקים ומפעילים את הקובץ label_image.py
. זה כנראה ייכשל (כנראה) כי ספריית tensorflow
לא מותקנת במכשיר. כדי לתקן את הבעיה, עורכים את השורה הזו בקובץ:
import tensorflow as tf
במקום זאת, הטקסט הוא:
import tflite_runtime.interpreter as tflite
ואז משנים את השורה הזו:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
כלומר:
interpreter = tflite.Interpreter(model_path=args.model_file)
עכשיו יש להריץ שוב את label_image.py
. זהו! עכשיו מופעלים מודלים של TensorFlow Lite.
מידע נוסף
מידע נוסף על
Interpreter
API זמין במאמר טעינה והפעלה של מודל ב-Python.אם יש לכם Raspberry Pi, כדאי לצפות בסדרת סרטונים על הרצה של זיהוי אובייקטים ב-Raspberry Pi באמצעות TensorFlow Lite.
אם אתם משתמשים במאיץ של Coral ML, עיינו בדוגמאות של Coral ב-GitHub.
כדי להמיר מודלים אחרים של TensorFlow ל-TensorFlow Lite, כדאי לקרוא על ממיר TensorFlow Lite
כדי ליצור גלגל של
tflite_runtime
, קראו את המאמר בניית חבילת גלגל Python של TensorFlow Lite