สร้างขึ้นบนรากฐานที่ผ่านการทดสอบมาอย่างดีของ TensorFlow Lite
LiteRT ไม่ใช่แค่ของใหม่ แต่เป็นรันไทม์แมชชีนเลิร์นนิงรุ่นต่อไปที่ได้รับการติดตั้งใช้งานอย่างกว้างขวางที่สุดในโลก โดยเป็นเทคโนโลยีที่ขับเคลื่อนแอปที่คุณใช้ทุกวัน ซึ่งมอบเวลาในการตอบสนองที่ต่ำและความเป็นส่วนตัวสูงในอุปกรณ์หลายพันล้านเครื่อง
แอป Google ที่สำคัญที่สุดเชื่อมั่นในเรา
มีแอปพลิเคชันมากกว่า 100, 000 รายการและผู้ใช้ทั่วโลกหลายพันล้านคน
ไฮไลต์ของ LiteRT
พร้อมใช้งานข้ามแพลตฟอร์ม
ปลดปล่อย GenAI
การเร่งฮาร์ดแวร์ที่ง่ายขึ้น
การรองรับหลายเฟรมเวิร์ก
ติดตั้งใช้งานผ่าน LiteRT
เพิ่มประสิทธิภาพเวิร์กโฟลว์การเรียนรู้เชิงลึกตั้งแต่การฝึกไปจนถึงการติดตั้งใช้งานในอุปกรณ์
1.รับโมเดล
ใช้โมเดลที่ฝึกไว้ล่วงหน้า .tflite หรือแปลงโมเดล PyTorch, JAX หรือ TensorFlow เป็น .tflite
2.เพิ่มประสิทธิภาพ
ใช้ชุดเครื่องมือเพิ่มประสิทธิภาพ LiteRT เพื่อกำหนดปริมาณโมเดลหลังการฝึก
3.วิ่ง
ติดตั้งใช้งานโมเดลด้วย LiteRT และเลือกตัวเร่งความเร็วที่เหมาะสมที่สุดสำหรับแอป
เลือกเส้นทางการพัฒนา
ใช้ LiteRT เพื่อติดตั้งใช้งาน AI ได้ทุกที่ ตั้งแต่แอปบนอุปกรณ์เคลื่อนที่ที่มีประสิทธิภาพสูงไปจนถึงอุปกรณ์ IoT ที่มีข้อจำกัดด้านทรัพยากร
ผู้ใช้ TFLite ที่มีอยู่
เปลี่ยนไปใช้ LiteRT เพื่อใช้ประโยชน์จากประสิทธิภาพที่ดียิ่งขึ้นและ API แบบรวมในแพลตฟอร์มต่างๆ (Android, เดสก์ท็อป, เว็บ)
BYOM : Bring your own Models
มีโมเดล PyTorch และต้องการใช้ประสบการณ์ด้านภาพหรือเสียงในอุปกรณ์
การใช้งานโมเดล Generative AI
การสร้างแชทบอทที่ซับซ้อนในอุปกรณ์โดยใช้โมเดล GenAI แบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพ เช่น Gemma หรือโมเดลแบบโอเพนเวทอื่นๆ
[ขั้นสูง] ผู้เชี่ยวชาญด้านโมเดล
การเขียนโมเดลที่กำหนดเองหรือการเพิ่มประสิทธิภาพ CPU/GPU/NPU ที่เฉพาะเจาะจงกับฮาร์ดแวร์อย่างละเอียดเพื่อประสิทธิภาพสูงสุด
ตัวอย่าง โมเดล และการสาธิต
ดูแอปตัวอย่าง LiteRT ใน GitHub
แอปตัวอย่างที่สมบูรณ์แบบตั้งแต่ต้นจนจบ
ดูโมเดล Gen AI
โมเดล Gen AI ที่พร้อมใช้งานและได้รับการฝึกไว้ล่วงหน้า
ดูการสาธิต - แอป Google AI Edge Gallery
แกลเลอรีที่แสดงกรณีการใช้งาน ML/GenAI ในอุปกรณ์โดยใช้ LiteRT
บล็อกและประกาศ
ติดตามประกาศล่าสุด การเจาะลึกด้านเทคนิค และเกณฑ์เปรียบเทียบประสิทธิภาพจากทีม LiteRT
LiteRT: เฟรมเวิร์กสากลสำหรับ AI ในอุปกรณ์
เฟรมเวิร์ก ML แบบรวมในอุปกรณ์ของ Google ซึ่งพัฒนามาจาก TFLite เพื่อการติดตั้งใช้งานที่มีประสิทธิภาพสูง
NPU และ LiteRT ของ MediaTek: ขับเคลื่อน AI ในอุปกรณ์รุ่นถัดไป
ขยายการรองรับการเร่งความเร็ว NPU ไปยังชิปเซ็ต MediaTek เพื่อ AI ที่มีประสิทธิภาพสูง
ปลดล็อกประสิทธิภาพสูงสุดใน NPU ของ Qualcomm ด้วย LiteRT
ปลดล็อกประสิทธิภาพที่ก้าวกระโดดสำหรับ Generative AI ในหน่วยประมวลผลประสาทของ Qualcomm
LiteRT: ประสิทธิภาพสูงสุดที่ใช้งานง่าย
ขอแนะนำ CompiledModel API สำหรับการเลือกฮาร์ดแวร์อัตโนมัติและการดำเนินการแบบไม่พร้อมกัน
GenAI ในอุปกรณ์ใน Chrome, Chromebook Plus และ Pixel Watch ที่มี LiteRT-LM
ติดตั้งใช้งานโมเดลภาษาบนแพลตฟอร์มที่ใช้เบราว์เซอร์และอุปกรณ์ที่สวมใส่ได้โดยใช้ LiteRT-LM
โมเดลภาษาขนาดเล็ก, ความสามารถในการประมวลผลข้อมูลหลายรูปแบบ และการเรียกใช้ฟังก์ชันของ Google AI Edge
ข้อมูลเชิงลึกล่าสุดเกี่ยวกับ RAG, Multimodality และการเรียกใช้ฟังก์ชันสำหรับโมเดลภาษา Edge
เข้าร่วมชุมชน
ชุมชน LiteRT GitHub
ร่วมสนับสนุนโปรเจ็กต์โดยตรงและทำงานร่วมกับนักพัฒนาซอฟต์แวร์หลัก
ฮับของ Hugging Face
เข้าถึงโมเดลแบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพใน Hugging Face Hub