มีโมเดลโอเพนซอร์สที่ผ่านการฝึกฝนแล้วมากมายที่คุณสามารถใช้ได้ ทันทีเมื่อใช้ LiteRT เพื่อทำงานด้านแมชชีนเลิร์นนิงหลายอย่าง การใช้โมเดล LiteRT ก่อนการฝึกจะช่วยให้คุณเพิ่มแมชชีนเลิร์นนิงได้ ลงในแอปพลิเคชันบนอุปกรณ์เคลื่อนที่และอุปกรณ์ EDGE ได้อย่างรวดเร็วโดยไม่ต้อง เพื่อสร้างและฝึกโมเดล คำแนะนำนี้จะช่วยให้คุณค้นหาและตัดสินใจเลือกการฝึกอบรม รุ่นสำหรับใช้กับ LiteRT
คุณสามารถเริ่มเรียกดูโมเดลขนาดใหญ่ได้ใน Kaggle รุ่น
ค้นหาโมเดลสำหรับแอปพลิเคชันของคุณ
การค้นหาโมเดล LiteRT ที่มีอยู่สำหรับ Use Case ของคุณอาจเป็นเรื่องยุ่งยาก โดยขึ้นอยู่กับเป้าหมายที่คุณต้องการบรรลุ ลองมาดูวิธีที่เราแนะนำ เพื่อหาโมเดลสำหรับใช้กับ LiteRT
ตัวอย่าง: วิธีที่เร็วที่สุดในการค้นหาและเริ่มใช้โมเดลที่มี TensorFlow Lite คือการเรียกดู LiteRT ตัวอย่าง เพื่อค้นหาโมเดลที่ทำงานคล้ายกับกรณีการใช้งานของคุณ แคตตาล็อกตัวอย่างสั้นๆ นี้มีตัวอย่างสำหรับกรณีการใช้งานทั่วไป คำอธิบายของโมเดลและโค้ดตัวอย่างเพื่อให้คุณเริ่มใช้งานและใช้งาน ให้พวกเขา
ตามประเภทอินพุตข้อมูล: นอกจากจะดูตัวอย่างที่คล้ายกับกรณีการใช้งานของคุณแล้ว อีกวิธีหนึ่งในการค้นพบโมเดลเพื่อการใช้งานของคุณเองคือการพิจารณาประเภทข้อมูล ที่ต้องการประมวลผล เช่น เสียง ข้อความ รูปภาพ หรือข้อมูลวิดีโอ เครื่อง โมเดลการเรียนรู้มักได้รับการออกแบบ เพื่อใช้กับข้อมูลประเภทใดประเภทหนึ่งเหล่านี้ ดังนั้นการมองหาโมเดลที่จัดการกับประเภทข้อมูล ที่ต้องการใช้สามารถช่วยคุณได้ จำกัดโมเดลที่ควรพิจารณาให้แคบลง
รายการต่อไปนี้แสดงลิงก์ไปยังโมเดล LiteRT ใน Kaggle รุ่นสําหรับ Use Case ทั่วไป
- การจัดประเภทรูปภาพ รุ่น
- การตรวจจับออบเจ็กต์ รุ่น
- การจัดประเภทข้อความ รุ่น
- การฝังข้อความ รุ่น
- การสังเคราะห์เสียง รุ่น
- การฝังเสียง รุ่น
เลือกระหว่างรุ่นที่คล้ายกัน
หากแอปพลิเคชันของคุณเป็นไปตามกรณีการใช้งานทั่วไป เช่น การจัดประเภทรูปภาพ หรือ การตรวจจับออบเจ็กต์ คุณอาจตัดสินใจได้ระหว่าง TensorFlow หลายรายการ โมเดล Lite ที่มีไบนารีต่างกัน ขนาดอินพุตข้อมูล ความเร็วในการอนุมาน และ คะแนนความแม่นยำในการคาดการณ์ เมื่อต้องเลือกระหว่างรูปแบบต่างๆ คุณ ควรจำกัดตัวเลือกของคุณให้แคบลงก่อน โดยพิจารณาจากข้อจำกัดที่มีข้อจำกัดมากที่สุด: ขนาด โมเดล ขนาดของข้อมูล ความเร็วในการอนุมาน หรือความแม่นยำ
หากไม่แน่ใจว่าข้อจำกัดสูงสุดของคุณคืออะไร ให้สมมติว่าเป็นขนาด ของโมเดลและเลือกโมเดลที่มีขนาดเล็กที่สุดที่มีอยู่ การเลือกโมเดลขนาดเล็กจะให้ ความยืดหยุ่นมากที่สุดในแง่ของอุปกรณ์ที่คุณสามารถ ทำให้โมเดลใช้งานได้และเรียกใช้ โมเดลขนาดเล็กมักจะผลิตได้เร็วขึ้นด้วย อนุมาน และการคาดการณ์ที่เร็วกว่าจะทำให้ผู้ใช้ปลายทาง ได้ง่ายขึ้น โมเดลขนาดเล็กมักจะมีอัตราความแม่นยำต่ำ ดังนั้นคุณอาจต้อง เพื่อเลือกโมเดลขนาดใหญ่หากความแม่นยำในการคาดการณ์เป็นข้อกังวลหลักของคุณ
แหล่งที่มาของรูปแบบ
ใช้ LiteRT ตัวอย่าง และ Kaggle Models เป็น ปลายทางแรกในการค้นหาและเลือกโมเดลสำหรับใช้กับ TensorFlow Lite โดยทั่วไปแล้ว แหล่งที่มาเหล่านี้จะมีโมเดลที่คัดสรรมาแล้วล่าสุดสำหรับใช้กับ LiteRT และมักจะรวมโค้ดตัวอย่างเพื่อช่วยให้ ขั้นตอนการพัฒนาแอป
โมเดล TensorFlow
คุณจะแปลงโมเดล TensorFlow ปกติเป็น TensorFlow ได้ รูปแบบ Lite ดูข้อมูลเพิ่มเติมเกี่ยวกับการแปลงโมเดลได้ที่ TensorFlow เอกสาร Lite Converter คุณค้นหาโมเดล TensorFlow ได้ใน โมเดล Kaggle และในโมเดล TensorFlow สวน