AI Edge ของ Google
AI ในอุปกรณ์สําหรับอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง
โซลูชันในอุปกรณ์ ตั้งแต่รุ่นไปจนถึงไปป์ไลน์
เร่งการติดตั้งใช้งาน ML เพิ่มประสิทธิภาพไปป์ไลน์ และเข้าถึง LLM ที่มีประสิทธิภาพได้อย่างง่ายดาย
สแต็กแบบครบวงจรที่มีทั้งองค์ประกอบระดับสูงและต่ำ
มีอะไรใหม่จาก I/O
MediaPipe
สร้างโซลูชัน ML ที่ล้ำสมัยในอุปกรณ์ได้อย่างง่ายดาย
แก้ปัญหาที่พบบ่อยด้วย MediaPipe
TensorFlow Lite
ไลบรารีขนาดเล็กที่มีหลายเฟรมสำหรับทำให้โมเดลใช้งานได้บนอุปกรณ์เคลื่อนที่ เว็บ และไมโครคอนโทรลเลอร์
Generative AI ทำงานในอุปกรณ์
API การอนุมาน MediaPipe LLM
เรียกใช้ LLM ในอุปกรณ์ทั้งหมดและทำงานที่หลากหลาย เช่น สร้างข้อความ เรียกข้อมูลในรูปแบบที่เป็นภาษาธรรมชาติ และสรุปเอกสาร API รองรับโมเดลภาษาขนาดใหญ่สำหรับการแปลงข้อความเป็นข้อความในตัว เพื่อให้คุณใช้โมเดล Generative AI ล่าสุดในอุปกรณ์กับแอปและผลิตภัณฑ์ได้ ดูข้อมูลเพิ่มเติม
API สร้าง Torch
เขียน LLM ที่มีประสิทธิภาพสูงใน PyTorch แล้วแปลงให้เรียกใช้ในอุปกรณ์โดยใช้รันไทม์ TensorFlow Lite (TFLite) ดูข้อมูลเพิ่มเติม
Gemini Nano
เข้าถึงโมเดล Gemini ที่มีประสิทธิภาพสูงสุดสำหรับงานในอุปกรณ์ผ่าน Android AICore พบกันใน Chrome เร็วๆ นี้
เหตุใดจึงควรทำให้ ML ใช้งานได้บนอุปกรณ์ Edge
ตอบสนองช้า
ข้ามการรับส่งเซิร์ฟเวอร์เพื่อการประมวลผลสื่อแบบเรียลไทม์ที่ง่ายดาย รวดเร็ว
ความเป็นส่วนตัว
ทำการอนุมานภายในเครื่องโดยที่ไม่มีข้อมูลที่ละเอียดอ่อนออกจากอุปกรณ์
ค่าใช้จ่าย
ใช้ทรัพยากรการประมวลผลในอุปกรณ์และประหยัดค่าใช้จ่ายของเซิร์ฟเวอร์
ความพร้อมใช้งานแบบออฟไลน์
แม้ไม่ได้เชื่อมต่อเครือข่าย ก็ไม่มีปัญหา