มีโมเดลโอเพนซอร์สที่ผ่านการฝึกมาแล้วมากมายที่คุณใช้กับ LiteRT ได้ทันทีเพื่อทำงานแมชชีนเลิร์นนิงหลายอย่าง การใช้โมเดล LiteRT ที่ผ่านการฝึกมาก่อนช่วยให้คุณเพิ่มฟังก์ชันแมชชีนเลิร์นนิงลงในแอปพลิเคชันบนอุปกรณ์เคลื่อนที่และอุปกรณ์ Edge ได้อย่างรวดเร็วโดยไม่ต้องสร้างและฝึกโมเดล คู่มือนี้จะช่วยให้คุณค้นหาและตัดสินใจเลือกโมเดลที่ฝึกแล้วเพื่อใช้กับ LiteRT
คุณเริ่มเรียกดูโมเดลจำนวนมากได้ใน Kaggle Models
ค้นหารุ่นที่เหมาะกับแอปพลิเคชันของคุณ
การค้นหารุ่น LiteRT ที่มีอยู่สำหรับกรณีการใช้งานของคุณอาจเป็นเรื่องยาก ทั้งนี้ขึ้นอยู่กับ สิ่งที่คุณต้องการทำให้สำเร็จ ต่อไปนี้คือวิธีที่แนะนำในการค้นหาโมเดลเพื่อใช้กับ LiteRT
ตัวอย่าง: วิธีที่เร็วที่สุดในการค้นหาและเริ่มใช้โมเดลด้วย TensorFlow Lite คือการเรียกดูส่วนตัวอย่าง LiteRT เพื่อค้นหาโมเดลที่ทำงานคล้ายกับกรณีการใช้งานของคุณ แคตตาล็อกตัวอย่างสั้นๆ นี้มีโมเดลสำหรับกรณีการใช้งานทั่วไปพร้อม คำอธิบายของโมเดลและโค้ดตัวอย่างที่จะช่วยให้คุณเริ่มต้นใช้งานและเรียกใช้ โมเดลได้
ตามประเภทอินพุตข้อมูล: นอกเหนือจากการดูตัวอย่างที่คล้ายกับกรณีการใช้งานของคุณ อีกวิธีในการค้นพบโมเดลสำหรับการใช้งานของคุณเองคือการพิจารณาประเภทข้อมูล ที่คุณต้องการประมวลผล เช่น ข้อมูลเสียง ข้อความ รูปภาพ หรือวิดีโอ โมเดลแมชชีน เลิร์นนิงมักได้รับการออกแบบมาเพื่อใช้กับข้อมูลประเภทใดประเภทหนึ่งต่อไปนี้ ดังนั้นการมองหาโมเดลที่จัดการประเภทข้อมูลที่คุณต้องการใช้จะช่วยให้คุณ จำกัดโมเดลที่ควรพิจารณาได้
รายการต่อไปนี้มีลิงก์ไปยังโมเดล LiteRT ใน Kaggle Models สำหรับกรณีการใช้งานทั่วไป
- โมเดลการจัดประเภทรูปภาพ
- โมเดลการตรวจหาวัตถุ
- การจัดประเภทข้อความ โมเดล
- การฝังข้อความ โมเดล
- โมเดลการสังเคราะห์เสียงพูด
- การฝังเสียง โมเดล
เลือกระหว่างโมเดลที่คล้ายกัน
หากแอปพลิเคชันของคุณเป็นไปตามกรณีการใช้งานทั่วไป เช่น การจัดประเภทรูปภาพหรือ การตรวจจับออบเจ็กต์ คุณอาจต้องเลือกระหว่างโมเดล TensorFlow Lite หลายรายการที่มีขนาดไบนารี ขนาดอินพุตข้อมูล ความเร็วในการอนุมาน และ คะแนนความแม่นยำในการคาดการณ์แตกต่างกัน เมื่อต้องเลือกระหว่างโมเดลหลายๆ โมเดล คุณ ควรจำกัดตัวเลือกโดยพิจารณาจากข้อจำกัดที่จำกัดที่สุดก่อน ได้แก่ ขนาดของ โมเดล ขนาดของข้อมูล ความเร็วในการอนุมาน หรือความแม่นยำ
หากไม่แน่ใจว่าข้อจำกัดที่จำกัดมากที่สุดคืออะไร ให้ถือว่าข้อจำกัดนั้นคือขนาดของโมเดลและเลือกโมเดลที่เล็กที่สุดที่มี การเลือกโมเดลขนาดเล็กจะช่วยให้คุณมีความยืดหยุ่นมากที่สุดในแง่ของอุปกรณ์ที่คุณสามารถทำให้ใช้งานได้และเรียกใช้โมเดลได้สำเร็จ นอกจากนี้ โมเดลขนาดเล็กมักจะให้การอนุมานที่เร็วกว่า และการคาดการณ์ที่รวดเร็วมักจะสร้างประสบการณ์การใช้งานที่ดีขึ้นสำหรับผู้ใช้ปลายทาง โดยปกติแล้ว โมเดลขนาดเล็กจะมีอัตราความแม่นยำต่ำกว่า ดังนั้นคุณอาจต้องเลือกโมเดลขนาดใหญ่กว่าหากความแม่นยำในการคาดการณ์เป็นข้อกังวลหลัก
แหล่งที่มาของโมเดล
ใช้ส่วนตัวอย่าง LiteRT และโมเดล Kaggle เป็น จุดหมายแรกในการค้นหาและเลือกโมเดลเพื่อใช้กับ TensorFlow Lite โดยทั่วไปแล้ว แหล่งข้อมูลเหล่านี้จะมีโมเดลที่ได้รับการดูแลและอัปเดตล่าสุดสำหรับใช้กับ LiteRT และมักจะมีโค้ดตัวอย่างเพื่อเร่งกระบวนการพัฒนา ของคุณ
โมเดล TensorFlow
คุณแปลงโมเดล TensorFlow ปกติเป็นรูปแบบ TensorFlow Lite ได้ ดูข้อมูลเพิ่มเติมเกี่ยวกับการแปลงโมเดลได้ในเอกสารประกอบของ TensorFlow Lite Converter คุณดูโมเดล TensorFlow ได้ใน Kaggle Models และใน TensorFlow Model Garden