หน้านี้อธิบายวิธีแปลงโมเดล TensorFlow
ลงในโมเดล LiteRT (เพิ่มประสิทธิภาพ
FlatBuffer ที่ระบุโดย
.tflite
) โดยใช้ตัวแปลง LiteRT
เวิร์กโฟลว์ Conversion
แผนภาพด้านล่างแสดงเวิร์กโฟลว์ระดับสูงสำหรับการทำ Conversion โมเดลของคุณ:
รูปที่ 1 ขั้นตอนการทำ Conversion
คุณแปลงโมเดลได้โดยใช้ตัวเลือกใดตัวเลือกหนึ่งต่อไปนี้
- Python API (แนะนำ): ซึ่งจะช่วยให้คุณผสานรวม Conversion ลงในไปป์ไลน์การพัฒนาได้ ใช้การเพิ่มประสิทธิภาพ เพิ่มข้อมูลเมตา และงานอื่นๆ อีกมากมายที่ช่วยให้ ในขั้นตอน Conversion
- บรรทัดคำสั่ง: รองรับการแปลงรูปแบบพื้นฐานเท่านั้น
API ของ Python
รหัสความช่วยเหลือ: หากต้องการดูข้อมูลเพิ่มเติมเกี่ยวกับตัวแปลง LiteRT
API เรียกใช้ print(help(tf.lite.TFLiteConverter))
แปลงโมเดล TensorFlow โดยใช้
tf.lite.TFLiteConverter
โมเดล TensorFlow จัดเก็บโดยใช้รูปแบบ SaveModel และ
สร้างขึ้นโดยใช้ API ระดับสูงของ tf.keras.*
(โมเดล Keras) หรือ
tf.*
API ระดับต่ำ (ซึ่งเป็นที่ที่คุณใช้สร้างฟังก์ชันที่เป็นรูปธรรม) เพื่อ
ผลลัพธ์แสดงว่าคุณมี 3 ตัวเลือกต่อไปนี้ (ตัวอย่างอยู่ใน 2-3 ถัดไป
หัวข้อ):
tf.lite.TFLiteConverter.from_saved_model()
(แนะนำ): ทำ Conversion SavedModeltf.lite.TFLiteConverter.from_keras_model()
: แปลง โมเดล Kerastf.lite.TFLiteConverter.from_concrete_functions()
: แปลง ฟังก์ชันที่เป็นรูปธรรม
แปลง SaveModel (แนะนำ)
ตัวอย่างต่อไปนี้แสดงวิธีการแปลง SavedModel ลงใน TensorFlow โมเดล Lite
import tensorflow as tf
# Convert the model
converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir) # path to the SavedModel directory
tflite_model = converter.convert()
# Save the model.
with open('model.tflite', 'wb') as f:
f.write(tflite_model)
แปลงโมเดล Keras
ตัวอย่างต่อไปนี้แสดงวิธีการแปลง โมเดล Keras ลงใน TensorFlow โมเดล Lite
import tensorflow as tf
# Create a model using high-level tf.keras.* APIs
model = tf.keras.models.Sequential([
tf.keras.layers.Dense(units=1, input_shape=[1]),
tf.keras.layers.Dense(units=16, activation='relu'),
tf.keras.layers.Dense(units=1)
])
model.compile(optimizer='sgd', loss='mean_squared_error') # compile the model
model.fit(x=[-1, 0, 1], y=[-3, -1, 1], epochs=5) # train the model
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_keras_dir")
# Convert the model.
converter = tf.lite.TFLiteConverter.from_keras_model(model)
tflite_model = converter.convert()
# Save the model.
with open('model.tflite', 'wb') as f:
f.write(tflite_model)
แปลงฟังก์ชันที่เป็นรูปธรรม
ตัวอย่างต่อไปนี้แสดงวิธีแปลง ที่เป็นรูปธรรมลงใน โมเดล LiteRT
import tensorflow as tf
# Create a model using low-level tf.* APIs
class Squared(tf.Module):
@tf.function(input_signature=[tf.TensorSpec(shape=[None], dtype=tf.float32)])
def __call__(self, x):
return tf.square(x)
model = Squared()
# (ro run your model) result = Squared(5.0) # This prints "25.0"
# (to generate a SavedModel) tf.saved_model.save(model, "saved_model_tf_dir")
concrete_func = model.__call__.get_concrete_function()
# Convert the model.
converter = tf.lite.TFLiteConverter.from_concrete_functions([concrete_func],
model)
tflite_model = converter.convert()
# Save the model.
with open('model.tflite', 'wb') as f:
f.write(tflite_model)
ฟีเจอร์อื่นๆ
ใช้การเพิ่มประสิทธิภาพ ทั่วไป การเพิ่มประสิทธิภาพที่ใช้คือ การวัดปริมาณหลังการฝึก ซึ่งจะช่วยลดเวลาในการตอบสนองและขนาดของโมเดลโดยให้สูญเสียข้อมูลน้อยที่สุด ความแม่นยำ
เพิ่มข้อมูลเมตา ซึ่งจะช่วยให้สร้างแพลตฟอร์มได้ง่ายขึ้น รหัส Wrapper ที่เฉพาะเจาะจงเมื่อทำให้โมเดลใช้งานได้ในอุปกรณ์
ข้อผิดพลาดในการแปลง
ข้อผิดพลาดที่พบบ่อยเกี่ยวกับ Conversion และวิธีแก้ไขมีดังนี้
ข้อผิดพลาด:
Some ops are not supported by the native TFLite runtime, you can enable TF kernels fallback using TF Select.
วิธีแก้ไข: ข้อผิดพลาดเกิดขึ้นเนื่องจากโมเดลของคุณมี TF Ops ที่ไม่มี การใช้งาน TFLite ที่สอดคล้องกัน คุณแก้ไขปัญหานี้ได้โดย การใช้ TF op ในโมเดล TFLite (แนะนำ) ถ้าคุณต้องการสร้างโมเดลที่มี TFLite Ops เท่านั้น คุณสามารถเพิ่ม คำขอ TFLite ที่ขาดไปใน ปัญหาเกี่ยวกับ GitHub #21526 (แสดงความคิดเห็นหากยังไม่ได้กล่าวถึงคำขอ) หรือ สร้างการดำเนินการ TFLite ตัวคุณเอง
ข้อผิดพลาด:
.. is neither a custom op nor a flex op
วิธีแก้ไข: หากการดำเนินการของ TF นี้
รองรับใน TF: ข้อผิดพลาดเกิดขึ้นเนื่องจากการดำเนินการของ TF ขาดหายไปจาก รายการที่อนุญาต (รายการโดยสมบูรณ์ TF Ops สนับสนุนโดย TFLite) คุณสามารถแก้ไขได้ดังนี้
ไม่รองรับใน TF: ข้อผิดพลาดเกิดขึ้นเนื่องจาก TFLite ไม่ทราบ โอเปอเรเตอร์ TF ที่คุณกำหนดเอง คุณสามารถแก้ไขได้ดังนี้
- สร้างตัวเลือก TF
- แปลงโมเดล TF เป็นโมเดล TFLite
- สร้าง TFLite op และเรียกใช้การอนุมานโดยลิงก์กับรันไทม์ TFLite
เครื่องมือบรรทัดคำสั่ง
หากคุณได้
ติดตั้ง TensorFlow 2.x จาก PIP ให้ใช้
คำสั่ง tflite_convert
หากต้องการดูแฟล็กทั้งหมดที่มีอยู่ ให้ใช้
คำสั่งต่อไปนี้
$ tflite_convert --help
`--output_file`. Type: string. Full path of the output file.
`--saved_model_dir`. Type: string. Full path to the SavedModel directory.
`--keras_model_file`. Type: string. Full path to the Keras H5 model file.
`--enable_v1_converter`. Type: bool. (default False) Enables the converter and flags used in TF 1.x instead of TF 2.x.
You are required to provide the `--output_file` flag and either the `--saved_model_dir` or `--keras_model_file` flag.
หากคุณมี
ซอร์สของ TensorFlow 2.x
ดาวน์โหลดและต้องการเรียกใช้ตัวแปลงจากต้นทางนั้นโดยไม่ต้องสร้างและ
ติดตั้งแพ็กเกจ
คุณสามารถแทนที่ "tflite_convert
" กับ
"bazel run tensorflow/lite/python:tflite_convert --
" ในคำสั่ง
การแปลง savedModel
tflite_convert \
--saved_model_dir=/tmp/mobilenet_saved_model \
--output_file=/tmp/mobilenet.tflite
การแปลงรุ่น Keras H5
tflite_convert \
--keras_model_file=/tmp/mobilenet_keras_model.h5 \
--output_file=/tmp/mobilenet.tflite