โมเดลที่ฝึกล่วงหน้าสำหรับ LiteRT

มีโมเดลโอเพนซอร์สที่ผ่านการฝึกฝนแล้วมากมายที่คุณสามารถใช้ได้ ทันทีเมื่อใช้ LiteRT เพื่อทำงานด้านแมชชีนเลิร์นนิงหลายอย่าง การใช้โมเดล LiteRT ก่อนการฝึกจะช่วยให้คุณเพิ่มแมชชีนเลิร์นนิงได้ ลงในแอปพลิเคชันบนอุปกรณ์เคลื่อนที่และอุปกรณ์ EDGE ได้อย่างรวดเร็วโดยไม่ต้อง เพื่อสร้างและฝึกโมเดล คำแนะนำนี้จะช่วยให้คุณค้นหาและตัดสินใจเลือกการฝึกอบรม รุ่นสำหรับใช้กับ LiteRT

คุณสามารถเริ่มเรียกดูโมเดลขนาดใหญ่ได้ใน Kaggle รุ่น

ค้นหาโมเดลสำหรับแอปพลิเคชันของคุณ

การค้นหาโมเดล LiteRT ที่มีอยู่สำหรับ Use Case ของคุณอาจเป็นเรื่องยุ่งยาก โดยขึ้นอยู่กับเป้าหมายที่คุณต้องการบรรลุ ลองมาดูวิธีที่เราแนะนำ เพื่อหาโมเดลสำหรับใช้กับ LiteRT

ตัวอย่าง: วิธีที่เร็วที่สุดในการค้นหาและเริ่มใช้โมเดลที่มี TensorFlow Lite คือการเรียกดู LiteRT ตัวอย่าง เพื่อค้นหาโมเดลที่ทำงานคล้ายกับกรณีการใช้งานของคุณ แคตตาล็อกตัวอย่างสั้นๆ นี้มีตัวอย่างสำหรับกรณีการใช้งานทั่วไป คำอธิบายของโมเดลและโค้ดตัวอย่างเพื่อให้คุณเริ่มใช้งานและใช้งาน ให้พวกเขา

ตามประเภทอินพุตข้อมูล: นอกจากจะดูตัวอย่างที่คล้ายกับกรณีการใช้งานของคุณแล้ว อีกวิธีหนึ่งในการค้นพบโมเดลเพื่อการใช้งานของคุณเองคือการพิจารณาประเภทข้อมูล ที่ต้องการประมวลผล เช่น เสียง ข้อความ รูปภาพ หรือข้อมูลวิดีโอ เครื่อง โมเดลการเรียนรู้มักได้รับการออกแบบ เพื่อใช้กับข้อมูลประเภทใดประเภทหนึ่งเหล่านี้ ดังนั้นการมองหาโมเดลที่จัดการกับประเภทข้อมูล ที่ต้องการใช้สามารถช่วยคุณได้ จำกัดโมเดลที่ควรพิจารณาให้แคบลง

รายการต่อไปนี้แสดงลิงก์ไปยังโมเดล LiteRT ใน Kaggle รุ่นสําหรับ Use Case ทั่วไป

เลือกระหว่างรุ่นที่คล้ายกัน

หากแอปพลิเคชันของคุณเป็นไปตามกรณีการใช้งานทั่วไป เช่น การจัดประเภทรูปภาพ หรือ การตรวจจับออบเจ็กต์ คุณอาจตัดสินใจได้ระหว่าง TensorFlow หลายรายการ โมเดล Lite ที่มีไบนารีต่างกัน ขนาดอินพุตข้อมูล ความเร็วในการอนุมาน และ คะแนนความแม่นยำในการคาดการณ์ เมื่อต้องเลือกระหว่างรูปแบบต่างๆ คุณ ควรจำกัดตัวเลือกของคุณให้แคบลงก่อน โดยพิจารณาจากข้อจำกัดที่มีข้อจำกัดมากที่สุด: ขนาด โมเดล ขนาดของข้อมูล ความเร็วในการอนุมาน หรือความแม่นยำ

หากไม่แน่ใจว่าข้อจำกัดสูงสุดของคุณคืออะไร ให้สมมติว่าเป็นขนาด ของโมเดลและเลือกโมเดลที่มีขนาดเล็กที่สุดที่มีอยู่ การเลือกโมเดลขนาดเล็กจะให้ ความยืดหยุ่นมากที่สุดในแง่ของอุปกรณ์ที่คุณสามารถ ทำให้โมเดลใช้งานได้และเรียกใช้ โมเดลขนาดเล็กมักจะผลิตได้เร็วขึ้นด้วย อนุมาน และการคาดการณ์ที่เร็วกว่าจะทำให้ผู้ใช้ปลายทาง ได้ง่ายขึ้น โมเดลขนาดเล็กมักจะมีอัตราความแม่นยำต่ำ ดังนั้นคุณอาจต้อง เพื่อเลือกโมเดลขนาดใหญ่หากความแม่นยำในการคาดการณ์เป็นข้อกังวลหลักของคุณ

แหล่งที่มาของรูปแบบ

ใช้ LiteRT ตัวอย่าง และ Kaggle Models เป็น ปลายทางแรกในการค้นหาและเลือกโมเดลสำหรับใช้กับ TensorFlow Lite โดยทั่วไปแล้ว แหล่งที่มาเหล่านี้จะมีโมเดลที่คัดสรรมาแล้วล่าสุดสำหรับใช้กับ LiteRT และมักจะรวมโค้ดตัวอย่างเพื่อช่วยให้ ขั้นตอนการพัฒนาแอป

โมเดล TensorFlow

คุณจะแปลงโมเดล TensorFlow ปกติเป็น TensorFlow ได้ รูปแบบ Lite ดูข้อมูลเพิ่มเติมเกี่ยวกับการแปลงโมเดลได้ที่ TensorFlow เอกสาร Lite Converter คุณค้นหาโมเดล TensorFlow ได้ใน โมเดล Kaggle และในโมเดล TensorFlow สวน