AI Edge ของ Google

AI ในอุปกรณ์สําหรับอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง

โซลูชันในอุปกรณ์ ตั้งแต่รุ่นไปจนถึงไปป์ไลน์

เร่งการติดตั้งใช้งาน ML เพิ่มประสิทธิภาพไปป์ไลน์ และเข้าถึง LLM ที่มีประสิทธิภาพได้อย่างง่ายดาย

สแต็กแบบครบวงจรที่มีทั้งองค์ประกอบระดับสูงและต่ำ

มีอะไรใหม่จาก I/O

Generative AI ทำงานในอุปกรณ์

API การอนุมาน MediaPipe LLM

เรียกใช้ LLM ในอุปกรณ์ทั้งหมดและทำงานที่หลากหลาย เช่น สร้างข้อความ เรียกข้อมูลในรูปแบบที่เป็นภาษาธรรมชาติ และสรุปเอกสาร API รองรับโมเดลภาษาขนาดใหญ่สำหรับการแปลงข้อความเป็นข้อความในตัว เพื่อให้คุณใช้โมเดล Generative AI ล่าสุดในอุปกรณ์กับแอปและผลิตภัณฑ์ได้ ดูข้อมูลเพิ่มเติม

API สร้าง Torch

เขียน LLM ที่มีประสิทธิภาพสูงใน PyTorch แล้วแปลงให้เรียกใช้ในอุปกรณ์โดยใช้รันไทม์ TensorFlow Lite (TFLite) ดูข้อมูลเพิ่มเติม

Gemini Nano

เข้าถึงโมเดล Gemini ที่มีประสิทธิภาพสูงสุดสำหรับงานในอุปกรณ์ผ่าน Android AICore พบกันใน Chrome เร็วๆ นี้

เหตุใดจึงควรทำให้ ML ใช้งานได้บนอุปกรณ์ Edge

ไอคอนมาตรวัดความเร็ว

ตอบสนองช้า

ข้ามการรับส่งเซิร์ฟเวอร์เพื่อการประมวลผลสื่อแบบเรียลไทม์ที่ง่ายดาย รวดเร็ว

ไอคอนแม่กุญแจ

ความเป็นส่วนตัว

ทำการอนุมานภายในเครื่องโดยที่ไม่มีข้อมูลที่ละเอียดอ่อนออกจากอุปกรณ์

ไม่มีเงิน

ค่าใช้จ่าย

ใช้ทรัพยากรการประมวลผลในอุปกรณ์และประหยัดค่าใช้จ่ายของเซิร์ฟเวอร์

ไม่มี Wi-Fi

ความพร้อมใช้งานแบบออฟไลน์

แม้ไม่ได้เชื่อมต่อเครือข่าย ก็ไม่มีปัญหา