ระบบนิเวศของ Android ครอบคลุมอุปกรณ์หลากหลายประเภทที่มีหน่วยประมวลผลนิวรอน (NPU) ที่แตกต่างกัน การใช้ประโยชน์จาก NPU ที่เชี่ยวชาญเหล่านี้จะช่วยเร่งการอนุมานโมเดล LiteRT (TFLite) และลดการใช้พลังงานได้อย่างมากเมื่อเทียบกับการดำเนินการใน CPU หรือ GPU ซึ่งจะช่วยปรับปรุงประสบการณ์ของผู้ใช้ในแอปพลิเคชันของคุณ
ผู้จำหน่ายชิปที่ผลิต NPU จะมอบ LiteRT Delegate เพื่ออนุญาตให้แอปของคุณ ใช้อุปกรณ์เฉพาะของตนในอุปกรณ์ของผู้ใช้แต่ละราย
ผู้แทนโดยตรงของเครื่องมือ AI ของ Qualcomm®
Qualcomm® AI Engine Direct Delegate ช่วยให้ผู้ใช้เรียกใช้โมเดล LiteRT ได้โดยใช้รันไทม์ AI Engine Direct โดยผู้มอบสิทธิ์จะได้รับการสนับสนุนจาก Neural Network API ของ Qualcomm
Qualcomm® AI Engine Direct Delegate พร้อมให้บริการใน Maven Central ดูข้อมูลเพิ่มเติมได้ที่เอกสารประกอบของ Qualcomm Neural Network
เร็วๆ นี้
เราหวังว่าจะได้สนับสนุนผู้แทนจากผู้ให้บริการต่อไปนี้ในอีกไม่กี่เดือนข้างหน้า
- Google Pixel
- Samsung System LSI
- Intel
โปรดรอติดตามข้อมูลอัปเดตและวิธีการเพิ่มเติมเกี่ยวกับการใช้ตัวแทนเหล่านี้เพื่อ ใช้ประโยชน์จาก NPU ในโมเดล LiteRT (TFLite)