Conversion, รันไทม์ และการเพิ่มประสิทธิภาพที่มีประสิทธิภาพสำหรับแมชชีนเลิร์นนิงในอุปกรณ์
LiteRT ไม่ใช่แค่ของใหม่ แต่เป็นรันไทม์แมชชีนเลิร์นนิงรุ่นต่อไปที่ได้รับการติดตั้งใช้งานอย่างกว้างขวางที่สุดในโลก โดยเป็นเทคโนโลยีที่ขับเคลื่อนแอปที่คุณใช้ทุกวัน ซึ่งมอบเวลาในการตอบสนองที่ต่ำและความเป็นส่วนตัวสูงในอุปกรณ์หลายพันล้านเครื่อง

แอป Google ที่สำคัญที่สุดเชื่อมั่นในเรา

มีแอปพลิเคชันมากกว่า 100, 000 รายการและผู้ใช้ทั่วโลกหลายพันล้านคน

ไฮไลต์ของ LiteRT

ติดตั้งใช้งานผ่าน LiteRT

เพิ่มประสิทธิภาพเวิร์กโฟลว์การเรียนรู้เชิงลึกตั้งแต่การฝึกไปจนถึงการติดตั้งใช้งานในอุปกรณ์
ใช้โมเดลที่ฝึกไว้ล่วงหน้า .tflite หรือแปลงโมเดล PyTorch, JAX หรือ TensorFlow เป็น .tflite
ใช้ชุดเครื่องมือเพิ่มประสิทธิภาพ LiteRT เพื่อกำหนดปริมาณโมเดลหลังการฝึก
ติดตั้งใช้งานโมเดลด้วย LiteRT และเลือกตัวเร่งความเร็วที่เหมาะสมที่สุดสำหรับแอป

เลือกเส้นทางการพัฒนา

ใช้ LiteRT เพื่อติดตั้งใช้งาน AI ได้ทุกที่ ตั้งแต่แอปบนอุปกรณ์เคลื่อนที่ที่มีประสิทธิภาพสูงไปจนถึงอุปกรณ์ IoT ที่มีข้อจำกัดด้านทรัพยากร
เปลี่ยนไปใช้ LiteRT เพื่อใช้ประโยชน์จากประสิทธิภาพที่ดียิ่งขึ้นและ API แบบรวมในแพลตฟอร์มต่างๆ (Android, เดสก์ท็อป, เว็บ)
มีโมเดล PyTorch และต้องการใช้ประสบการณ์ด้านภาพหรือเสียงในอุปกรณ์
การสร้างแชทบอทที่ซับซ้อนในอุปกรณ์โดยใช้โมเดล GenAI แบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพ เช่น Gemma หรือโมเดลแบบโอเพนเวทอื่นๆ
การเขียนโมเดลที่กำหนดเองหรือการเพิ่มประสิทธิภาพ CPU/GPU/NPU ที่เฉพาะเจาะจงกับฮาร์ดแวร์อย่างละเอียดเพื่อประสิทธิภาพสูงสุด

ตัวอย่าง โมเดล และการสาธิต

แอปตัวอย่างที่สมบูรณ์แบบตั้งแต่ต้นจนจบ
โมเดล Gen AI ที่พร้อมใช้งานและได้รับการฝึกไว้ล่วงหน้า
แกลเลอรีที่แสดงกรณีการใช้งาน ML/GenAI ในอุปกรณ์โดยใช้ LiteRT

บล็อกและประกาศ

ติดตามประกาศล่าสุด การเจาะลึกด้านเทคนิค และเกณฑ์เปรียบเทียบประสิทธิภาพจากทีม LiteRT
เฟรมเวิร์ก ML แบบรวมในอุปกรณ์ของ Google ซึ่งพัฒนามาจาก TFLite เพื่อการติดตั้งใช้งานที่มีประสิทธิภาพสูง
ขยายการรองรับการเร่งความเร็ว NPU ไปยังชิปเซ็ต MediaTek เพื่อ AI ที่มีประสิทธิภาพสูง
ปลดล็อกประสิทธิภาพที่ก้าวกระโดดสำหรับ Generative AI ในหน่วยประมวลผลประสาทของ Qualcomm
ขอแนะนำ CompiledModel API สำหรับการเลือกฮาร์ดแวร์อัตโนมัติและการดำเนินการแบบไม่พร้อมกัน
ติดตั้งใช้งานโมเดลภาษาบนแพลตฟอร์มที่ใช้เบราว์เซอร์และอุปกรณ์ที่สวมใส่ได้โดยใช้ LiteRT-LM
ข้อมูลเชิงลึกล่าสุดเกี่ยวกับ RAG, Multimodality และการเรียกใช้ฟังก์ชันสำหรับโมเดลภาษา Edge

เข้าร่วมชุมชน

ร่วมสนับสนุนโปรเจ็กต์โดยตรงและทำงานร่วมกับนักพัฒนาซอฟต์แวร์หลัก
เข้าถึงโมเดลแบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพใน Hugging Face Hub
พร้อมที่จะยกระดับ ML ในอุปกรณ์ไปอีกขั้นแล้วหรือยัง สำรวจเอกสารประกอบและเริ่มสร้างได้เลยวันนี้