ทำให้ AI ใช้งานได้ทั้งในอุปกรณ์เคลื่อนที่ เว็บ และแอปพลิเคชันแบบฝัง
-
ในอุปกรณ์
ลดเวลาในการตอบสนอง ทำงานแบบออฟไลน์ เก็บข้อมูลของคุณไว้ในเครื่องและ ส่วนตัว
-
ข้ามแพลตฟอร์ม
ใช้งานโมเดลเดียวกันทั้งใน Android, iOS, เว็บ และแบบฝัง
-
หลายเฟรมเวิร์ก
ใช้งานได้กับโมเดล JAX, Keras, PyTorch และ TensorFlow
-
EDGE Stack ของ AI เต็มรูปแบบ
เฟรมเวิร์กที่ยืดหยุ่น โซลูชันแบบครบวงจร และตัวเร่งฮาร์ดแวร์
โซลูชันสำเร็จรูปและเฟรมเวิร์กที่ยืดหยุ่น
API แบบใช้โค้ดน้อยสำหรับงาน AI ทั่วไป
API แบบข้ามแพลตฟอร์มเพื่อจัดการงานทั่วไปของ Generative AI, วิสัยทัศน์, ข้อความ และเสียง
เริ่มต้นใช้งานงาน MediaPipeทำให้โมเดลที่กำหนดเองใช้งานได้ข้ามแพลตฟอร์ม
เรียกใช้โมเดล JAX, Keras, PyTorch และ TensorFlow อย่างมีประสิทธิภาพบน Android, iOS, เว็บ และอุปกรณ์แบบฝัง ซึ่งเพิ่มประสิทธิภาพเพื่อ ML และ Generative AI แบบดั้งเดิม
เริ่มต้นใช้งาน LiteRTทำให้วงจรการพัฒนาสั้นลงด้วยการแสดงข้อมูลผ่านภาพ
แสดงภาพการเปลี่ยนรูปแบบของโมเดลผ่าน Conversion และการวัดจํานวน แก้ไขข้อบกพร่องของฮอตสปอตตาม ซ้อนทับผลลัพธ์การเปรียบเทียบ
เริ่มต้นใช้งาน Model Explorerสร้างไปป์ไลน์ที่กำหนดเองสำหรับฟีเจอร์ ML ที่ซับซ้อน
สร้างงานของคุณเองด้วยการเชื่อมโยงโมเดล ML หลายๆ โมเดลอย่างมีประสิทธิภาพ รวมถึงก่อนและหลังการประมวลผล เรียกใช้ไปป์ไลน์แบบเร่ง (GPU และ NPU) โดยไม่บล็อก CPU
เริ่มต้นใช้งาน MediaPipe Frameworkเครื่องมือและเฟรมเวิร์กที่ขับเคลื่อนแอปของ Google
สำรวจ AI Edge Stack แบบเต็มรูปแบบ ซึ่งมีผลิตภัณฑ์จากทุกระดับ ตั้งแต่ API แบบใช้โค้ดน้อยไปจนถึงไลบรารีการเร่งความเร็วเฉพาะฮาร์ดแวร์
งาน MediaPipe
สร้างฟีเจอร์ AI ลงในแอปบนอุปกรณ์เคลื่อนที่และเว็บแอปได้อย่างรวดเร็วโดยใช้ API ที่ลดโค้ดสำหรับงานทั่วไป เช่น Generative AI, คอมพิวเตอร์วิทัศน์, ข้อความ และเสียง
Generative AI
ผสานรวมภาษา Generative และโมเดลรูปภาพของ Generative ลงในแอปโดยตรงด้วย API ที่พร้อมใช้งาน
การมองเห็น
สำรวจงานด้านการมองเห็นที่หลากหลาย ตั้งแต่การแบ่งกลุ่มลูกค้า การแยกประเภท การตรวจจับ การจดจำ และจุดสังเกต
ข้อความและ เสียง
จัดประเภทข้อความและเสียงในหลายหมวดหมู่ รวมถึงภาษา ความรู้สึก และหมวดหมู่ที่คุณกำหนดเอง
เริ่มต้นใช้งาน
เฟรมเวิร์ก MediaPipe
เฟรมเวิร์กระดับต่ำที่ใช้สร้างไปป์ไลน์ ML แบบเร่งที่มีประสิทธิภาพสูง มักรวมโมเดล ML หลายรายการรวมกับการประมวลผลก่อนและหลังแบบก่อนและหลัง
LiteRT
ทำให้โมเดล AI ที่เขียนในเฟรมเวิร์กใดก็ได้ใช้งานได้ทั้งบนอุปกรณ์เคลื่อนที่ เว็บ และไมโครคอนโทรลเลอร์ด้วยการเร่งความเร็วเฉพาะฮาร์ดแวร์ที่มีการเพิ่มประสิทธิภาพ
หลายเฟรมเวิร์ก
แปลงโมเดลจาก JAX, Keras, PyTorch และ TensorFlow เพื่อเรียกใช้บนขอบ
ข้ามแพลตฟอร์ม
เรียกใช้โมเดลเดียวกันบน Android, iOS, เว็บ และไมโครคอนโทรลเลอร์ที่มี SDK แบบเนทีฟ
น้ำหนักเบาและ รวดเร็ว
รันไทม์ที่มีประสิทธิภาพของ LiteRT ใช้พื้นที่เพียงไม่กี่เมกะไบต์และเปิดใช้การเร่งความเร็วโมเดลใน CPU, GPU และ NPU
เริ่มต้นใช้งาน
โปรแกรมสำรวจรูปแบบการระบุแหล่งที่มา
สำรวจ แก้ไขข้อบกพร่อง และเปรียบเทียบโมเดลของคุณด้วยภาพ วางซ้อนการเปรียบเทียบประสิทธิภาพและตัวเลขเพื่อระบุฮอตสปอตที่เป็นปัญหา
Gemini Nano ใน Android และ โครเมียม
สร้างประสบการณ์ Generative AI โดยใช้โมเดลในอุปกรณ์ที่ทรงพลังที่สุดของ Google