ทำให้ AI ใช้งานได้ทั้งในอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง
-
ในอุปกรณ์
ลดเวลาในการตอบสนอง ทำงานแบบออฟไลน์ เก็บข้อมูลไว้ในเครื่องและเก็บไว้เป็นส่วนตัว
-
ข้ามแพลตฟอร์ม
ใช้งานโมเดลเดียวกันทั้งใน Android, iOS, เว็บ และแบบฝัง
-
หลายเฟรมเวิร์ก
ใช้ได้กับโมเดล JAX, Keras, PyTorch และ TensorFlow
-
EDGE Stack ของ AI เต็มรูปแบบ
เฟรมเวิร์กแบบยืดหยุ่น โซลูชันแบบสําเร็จรูป โปรแกรมเร่งฮาร์ดแวร์
โซลูชันสำเร็จรูปและเฟรมเวิร์กที่มีความยืดหยุ่น
API แบบเขียนโค้ดน้อยสำหรับงานทั่วไปของ AI
API แบบข้ามแพลตฟอร์มเพื่อจัดการงานทั่วไปของ Generative AI, วิสัยทัศน์, ข้อความ และเสียง
เริ่มต้นใช้งาน Tasks ของ MediaPipeทำให้โมเดลที่กำหนดเองใช้งานได้ข้ามแพลตฟอร์ม
เรียกใช้โมเดล JAX, Keras, PyTorch และ TensorFlow อย่างมีประสิทธิภาพบน Android, iOS, เว็บ และอุปกรณ์แบบฝัง ซึ่งเพิ่มประสิทธิภาพเพื่อ ML และ Generative AI แบบดั้งเดิม
เริ่มต้นใช้งาน LiteRTทำให้วงจรการพัฒนาสั้นลงด้วยการแสดงข้อมูลผ่านภาพ
แสดงภาพการเปลี่ยนรูปแบบของโมเดลผ่าน Conversion และการวัดจํานวน แก้ไขข้อบกพร่องของฮอตสปอตตาม ซ้อนทับผลลัพธ์การเปรียบเทียบ
เริ่มต้นใช้งาน Model Explorerสร้างไปป์ไลน์ที่กำหนดเองสำหรับฟีเจอร์ ML ที่ซับซ้อน
สร้างงานของคุณเองด้วยการต่อเชื่อมโมเดล ML หลายรายการเข้าด้วยกันอย่างมีประสิทธิภาพ พร้อมกับตรรกะการประมวลผลก่อนและหลัง เรียกใช้ไปป์ไลน์ที่เร่งความเร็ว (GPU และ NPU) โดยไม่บล็อก CPU
เริ่มต้นใช้งาน MediaPipe Frameworkเครื่องมือและเฟรมเวิร์กที่ช่วยขับเคลื่อนแอปของ Google
สำรวจ AI Edge Stack แบบเต็มรูปแบบ ซึ่งมีผลิตภัณฑ์ในทุกระดับ ตั้งแต่ API แบบใช้โค้ดน้อยไปจนถึงไลบรารีการเร่งความเร็วเฉพาะฮาร์ดแวร์
งาน MediaPipe
สร้างฟีเจอร์ AI ในแอปบนอุปกรณ์เคลื่อนที่และเว็บได้อย่างรวดเร็วโดยใช้ API แบบใช้โค้ดน้อยสำหรับงานทั่วไปที่ครอบคลุม Generative AI, คอมพิวเตอร์วิทัศน์, ข้อความ และเสียง
Generative AI
ผสานรวมภาษา Generative และโมเดลรูปภาพของ Generative ลงในแอปโดยตรงด้วย API ที่พร้อมใช้งาน
การมองเห็น
สำรวจงานด้านวิสัยทัศน์ที่หลากหลาย ซึ่งครอบคลุมการแบ่งกลุ่ม การแยกประเภท การตรวจจับ การจดจำ และจุดสังเกตของร่างกาย
ข้อความและ เสียง
จัดประเภทข้อความและเสียงในหมวดหมู่ต่างๆ ซึ่งรวมถึงภาษา ความรู้สึก และหมวดหมู่ที่คุณกำหนดเอง
เริ่มต้นใช้งาน
เฟรมเวิร์ก MediaPipe
เฟรมเวิร์กระดับต่ำที่ใช้สร้างไปป์ไลน์ ML แบบเร่งที่มีประสิทธิภาพสูง มักรวมโมเดล ML หลายรายการรวมกับการประมวลผลก่อนและหลังแบบก่อนและหลัง
LiteRT
ติดตั้งใช้งานโมเดล AI ที่เขียนขึ้นในเฟรมเวิร์กใดก็ได้ในอุปกรณ์เคลื่อนที่ เว็บ และไมโครคอนโทรลเลอร์ด้วยการเร่งเฉพาะฮาร์ดแวร์ที่เพิ่มประสิทธิภาพ
หลายเฟรมเวิร์ก
แปลงโมเดลจาก JAX, Keras, PyTorch และ TensorFlow เพื่อเรียกใช้บนขอบ
ข้ามแพลตฟอร์ม
เรียกใช้โมเดลเดียวกันใน Android, iOS, เว็บ และไมโครคอนโทรลเลอร์ด้วย SDK เดิม
เบาและรวดเร็ว
รันไทม์ที่มีประสิทธิภาพของ LiteRT ใช้พื้นที่เพียงไม่กี่เมกะไบต์และเปิดใช้การเร่งความเร็วโมเดลใน CPU, GPU และ NPU
เริ่มต้นใช้งาน
โปรแกรมสำรวจรูปแบบการระบุแหล่งที่มา
สำรวจ แก้ไขข้อบกพร่อง และเปรียบเทียบโมเดลของคุณด้วยภาพ วางซ้อนการเปรียบเทียบประสิทธิภาพและตัวเลขเพื่อระบุฮอตสปอตที่เป็นปัญหา
Gemini Nano ใน Android และ Chrome
สร้างประสบการณ์ Generative AI โดยใช้โมเดลในอุปกรณ์ที่ทรงพลังที่สุดของ Google