การใช้ LiteRT กับ Python เหมาะสำหรับอุปกรณ์แบบฝังที่ใช้ Linux เช่น Raspberry Pi และ อุปกรณ์ปะการังที่มี Edge TPU และอื่นๆ อีกมากมาย
หน้านี้แสดงวิธีเริ่มเรียกใช้โมเดล LiteRT ด้วย Python ใน เพียงไม่กี่นาที เพียงมีโมเดล TensorFlow ที่แปลงเป็น TensorFlow แล้ว Lite (หากยังไม่ได้แปลงโมเดล คุณสามารถ ทดสอบโดยใช้รูปแบบตามตัวอย่างที่ลิงก์ไว้ด้านล่าง)
เกี่ยวกับแพ็กเกจรันไทม์ LiteRT
หากต้องการเริ่มเรียกใช้โมเดล LiteRT ด้วย Python อย่างรวดเร็ว ให้ติดตั้ง
เป็นล่าม LiteRT แทนที่จะแสดงแพ็กเกจ TensorFlow ทั้งหมด พ
เรียกแพ็กเกจ Python แบบง่ายนี้ tflite_runtime
แพ็กเกจ tflite_runtime
มีขนาดเพียงส่วนเดียวของ tensorflow
เต็ม
และมีโค้ดขั้นต่ำสุดซึ่งจำเป็นต่อการเรียกใช้การอนุมาน
LiteRT ซึ่งส่วนใหญ่เป็น
Interpreter
คลาส Python แพ็กเกจขนาดเล็กนี้เหมาะที่สุดเมื่อดำเนินการทุกอย่างที่คุณต้องการ
.tflite
เพื่อไม่ให้เปลืองพื้นที่ในดิสก์ด้วยไลบรารี TensorFlow ขนาดใหญ่
ติดตั้ง LiteRT สำหรับ Python
คุณติดตั้งใน Linux ด้วย PIP ได้โดยทำดังนี้
python3 -m pip install tflite-runtime
แพลตฟอร์มที่รองรับ
วงล้อ Python tflite-runtime
สร้างขึ้นล่วงหน้าและจัดเตรียมไว้ให้
แพลตฟอร์ม:
- Linux armv7l (เช่น Raspberry Pi 2, 3, 4 และ Zero 2 ที่ใช้ Raspberry Pi OS 32 บิต)
- Linux aArc64 (เช่น Raspberry Pi 3, 4 ที่ใช้ Debian ARM64)
- สำหรับ Linux x86_64
หากต้องการเรียกใช้โมเดล LiteRT ในแพลตฟอร์มอื่นๆ คุณควรทำอย่างใดอย่างหนึ่งต่อไปนี้ ใช้แพ็กเกจ TensorFlow แบบเต็ม หรือ สร้างแพ็กเกจ tflite-runtime จากต้นทาง
หากใช้ TensorFlow กับ Coral Edge TPU ให้ทำตามเอกสารประกอบการตั้งค่า Coral ที่เหมาะสมแทน
เรียกใช้การอนุมานโดยใช้ tflite_runtime
แทนที่จะนำเข้า Interpreter
จากโมดูล tensorflow
ตอนนี้คุณต้องทำสิ่งต่อไปนี้
นำเข้าจาก tflite_runtime
ตัวอย่างเช่น หลังจากที่คุณติดตั้งแพ็กเกจข้างต้น ให้คัดลอกและเรียกใช้
label_image.py
การดำเนินการนี้จะ (อาจจะ) ล้มเหลว เนื่องจากคุณไม่มีไลบรารี tensorflow
ติดตั้งไว้แล้ว หากต้องการแก้ไข ให้แก้ไขบรรทัดนี้ของไฟล์:
import tensorflow as tf
จึงเขียนว่า
import tflite_runtime.interpreter as tflite
แล้วเปลี่ยนบรรทัดนี้
interpreter = tf.lite.Interpreter(model_path=args.model_file)
โดยมีข้อความว่า:
interpreter = tflite.Interpreter(model_path=args.model_file)
ตอนนี้ให้เรียกใช้ label_image.py
อีกครั้ง เท่านี้ก็เรียบร้อย คุณกำลังเรียกใช้ LiteRT
ดูข้อมูลเพิ่มเติม
อ่านรายละเอียดเพิ่มเติมเกี่ยวกับ
Interpreter
API ได้ที่ โหลดและเรียกใช้โมเดลใน Pythonถ้าคุณมี Raspberry Pi โปรดดูชุดวิดีโอ เกี่ยวกับวิธีเรียกใช้การตรวจหาออบเจ็กต์ใน Raspberry Pi โดยใช้ LiteRT
หากกำลังใช้ Accelerator ของ Coral ML โปรดดูที่ ตัวอย่างปะการังใน GitHub
หากต้องการแปลงโมเดล TensorFlow อื่นๆ เป็น LiteRT โปรดอ่านเกี่ยวกับ ตัวแปลง LiteRT
หากต้องการสร้างล้อ
tflite_runtime
โปรดอ่าน สร้างแพ็กเกจ LiteRT Python Wheel