ทำให้ AI ใช้งานได้ทั้งในอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง
-
ในอุปกรณ์
ลดเวลาในการตอบสนอง ทำงานแบบออฟไลน์ เก็บข้อมูลไว้ในเครื่องและเก็บไว้เป็นส่วนตัว
-
ข้ามแพลตฟอร์ม
เรียกใช้รูปแบบเดียวกันใน Android, iOS, เว็บ และแบบฝัง
-
หลายเฟรมเวิร์ก
ใช้ได้กับโมเดล JAX, Keras, PyTorch และ TensorFlow
-
EDGE Stack ของ AI เต็มรูปแบบ
เฟรมเวิร์กที่ยืดหยุ่น โซลูชันแบบครบวงจร และตัวเร่งฮาร์ดแวร์
โซลูชันสำเร็จรูปและเฟรมเวิร์กที่ยืดหยุ่น
API แบบใช้โค้ดน้อยสำหรับงาน AI ทั่วไป
API แบบข้ามแพลตฟอร์มเพื่อจัดการงานทั่วไปของ Generative AI, การมองเห็น, ข้อความ และเสียง
เริ่มต้นใช้งาน Tasks ของ MediaPipeติดตั้งใช้งานโมเดลที่กําหนดเองข้ามแพลตฟอร์ม
เรียกใช้โมเดล JAX, Keras, PyTorch และ TensorFlow ได้อย่างมีประสิทธิภาพบน Android, iOS, เว็บ และอุปกรณ์แบบฝัง ซึ่งเพิ่มประสิทธิภาพสำหรับ ML แบบดั้งเดิมและ Generative AI
เริ่มต้นใช้งาน LiteRTย่นวงจรการพัฒนาด้วยการแสดงข้อมูลผ่านภาพ
แสดงภาพการเปลี่ยนรูปแบบของโมเดลผ่าน Conversion และการวัดจํานวน แก้ไขข้อบกพร่องของฮอตสปอตด้วยการวางซ้อนผลลัพธ์การเปรียบเทียบ
เริ่มต้นใช้งานโปรแกรมสำรวจรูปแบบการระบุแหล่งที่มาสร้างไปป์ไลน์ที่กําหนดเองสําหรับฟีเจอร์ ML ที่ซับซ้อน
สร้างงานของคุณเองด้วยการต่อเชื่อมโมเดล ML หลายรายการเข้าด้วยกันอย่างมีประสิทธิภาพ พร้อมกับตรรกะการประมวลผลก่อนและหลัง เรียกใช้ไปป์ไลน์ที่เร่งความเร็ว (GPU และ NPU) โดยไม่บล็อก CPU
เริ่มต้นใช้งานเฟรมเวิร์ก MediaPipeเครื่องมือและเฟรมเวิร์กที่ช่วยขับเคลื่อนแอปของ Google
สำรวจแพ็กเกจ AI Edge แบบสมบูรณ์ที่มีผลิตภัณฑ์ในทุกระดับ ตั้งแต่ API แบบ Low-Code ไปจนถึงไลบรารีการเร่งเฉพาะฮาร์ดแวร์
งาน MediaPipe
สร้างฟีเจอร์ AI ในแอปบนอุปกรณ์เคลื่อนที่และเว็บได้อย่างรวดเร็วโดยใช้ API แบบใช้โค้ดน้อยสำหรับงานทั่วไปที่ครอบคลุม Generative AI, คอมพิวเตอร์วิทัศน์, ข้อความ และเสียง
Generative AI
ผสานรวมโมเดลภาษาและรูปภาพแบบ Generative เข้ากับแอปโดยตรงด้วย API ที่พร้อมใช้งาน
การมองเห็น
สำรวจงานด้านการมองเห็นที่หลากหลาย ตั้งแต่การแบ่งกลุ่มลูกค้า การแยกประเภท การตรวจจับ การจดจำ และจุดสังเกต
ข้อความและเสียง
จัดประเภทข้อความและเสียงในหมวดหมู่ต่างๆ ซึ่งรวมถึงภาษา ความรู้สึก และหมวดหมู่ที่กำหนดเอง
เริ่มต้นใช้งาน
เฟรมเวิร์ก MediaPipe
เฟรมเวิร์กระดับต่ำที่ใช้สร้างไปป์ไลน์ ML แบบเร่งที่มีประสิทธิภาพสูง มักรวมโมเดล ML หลายรายการรวมกับการประมวลผลก่อนและหลังแบบก่อนและหลัง
LiteRT
ติดตั้งใช้งานโมเดล AI ที่เขียนในเฟรมเวิร์กใดก็ได้ทั้งในอุปกรณ์เคลื่อนที่ เว็บ และไมโครคอนโทรลเลอร์ด้วยการเร่งความเร็วเฉพาะฮาร์ดแวร์ที่มีการเพิ่มประสิทธิภาพ
หลายเฟรมเวิร์ก
แปลงโมเดลจาก JAX, Keras, PyTorch และ TensorFlow ให้ทำงานบนอุปกรณ์ Edge ได้
ข้ามแพลตฟอร์ม
เรียกใช้โมเดลเดียวกันใน Android, iOS, เว็บ และไมโครคอนโทรลเลอร์ด้วย SDK เดิม
เบาและรวดเร็ว
รันไทม์ที่มีประสิทธิภาพของ LiteRT ใช้พื้นที่เพียงไม่กี่เมกะไบต์และเปิดใช้การเร่งความเร็วโมเดลใน CPU, GPU และ NPU
เริ่มต้นใช้งาน
โปรแกรมสำรวจรูปแบบการระบุแหล่งที่มา
สํารวจ แก้ไขข้อบกพร่อง และเปรียบเทียบโมเดลด้วยภาพ วางการเปรียบเทียบประสิทธิภาพและตัวเลขซ้อนกันเพื่อระบุจุดที่มีปัญหา
Gemini Nano ใน Android และ Chrome
สร้างประสบการณ์ Generative AI โดยใช้โมเดลในอุปกรณ์ที่มีประสิทธิภาพที่สุดของ Google