Conversion, รันไทม์ และการเพิ่มประสิทธิภาพที่มีประสิทธิภาพสำหรับแมชชีนเลิร์นนิงในอุปกรณ์
LiteRT ไม่ใช่แค่ของใหม่ แต่เป็นรันไทม์แมชชีนเลิร์นนิงรุ่นต่อไปที่ได้รับการติดตั้งใช้งานอย่างกว้างขวางที่สุดในโลก โดยเป็นเทคโนโลยีที่ขับเคลื่อนแอปที่คุณใช้ทุกวัน ซึ่งมอบเวลาในการตอบสนองที่ต่ำและความเป็นส่วนตัวสูงในอุปกรณ์หลายพันล้านเครื่อง

แอป Google ที่สำคัญที่สุดเชื่อมั่นในเรา

มีแอปพลิเคชันมากกว่า 100, 000 รายการและผู้ใช้ทั่วโลกหลายพันล้านคน

ไฮไลต์ของ LiteRT

ติดตั้งใช้งานผ่าน LiteRT

เพิ่มประสิทธิภาพเวิร์กโฟลว์การเรียนรู้เชิงลึกตั้งแต่การฝึกไปจนถึงการติดตั้งใช้งานในอุปกรณ์
ใช้โมเดลที่ฝึกไว้ล่วงหน้า .tflite หรือแปลงโมเดล PyTorch, JAX หรือ TensorFlow เป็น .tflite
ใช้ชุดเครื่องมือเพิ่มประสิทธิภาพ LiteRT เพื่อกำหนดปริมาณโมเดลหลังการฝึก
ติดตั้งใช้งานโมเดลด้วย LiteRT และเลือกตัวเร่งความเร็วที่เหมาะสมที่สุดสำหรับแอป

เลือกเส้นทางการพัฒนา

ใช้ LiteRT เพื่อติดตั้งใช้งาน AI ได้ทุกที่ ตั้งแต่แอปบนอุปกรณ์เคลื่อนที่ที่มีประสิทธิภาพสูงไปจนถึงอุปกรณ์ IoT ที่มีข้อจำกัดด้านทรัพยากร
เปลี่ยนไปใช้ LiteRT เพื่อใช้ประโยชน์จากประสิทธิภาพที่ดียิ่งขึ้นและ API แบบรวมในแพลตฟอร์มต่างๆ (Android, เดสก์ท็อป, เว็บ)
มีโมเดล PyTorch และต้องการใช้ประสบการณ์ด้านภาพหรือเสียงในอุปกรณ์
การสร้างแชทบอทที่ซับซ้อนในอุปกรณ์โดยใช้โมเดล GenAI แบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพ เช่น Gemma หรือโมเดลแบบโอเพนเวทอื่นๆ
การเขียนโมเดลที่กำหนดเองหรือการเพิ่มประสิทธิภาพ CPU/GPU/NPU ที่เฉพาะเจาะจงกับฮาร์ดแวร์อย่างละเอียดเพื่อประสิทธิภาพสูงสุด

ตัวอย่าง โมเดล และการสาธิต

แอปตัวอย่างที่สมบูรณ์แบบตั้งแต่ต้นจนจบ
โมเดล Gen AI ที่พร้อมใช้งานและได้รับการฝึกไว้ล่วงหน้า
แกลเลอรีที่แสดงกรณีการใช้งาน ML/GenAI ในอุปกรณ์โดยใช้ LiteRT

บล็อกและประกาศ

ติดตามประกาศล่าสุด การเจาะลึกด้านเทคนิค และเกณฑ์เปรียบเทียบประสิทธิภาพจากทีม LiteRT
ดูวิธีที่ผู้นำในอุตสาหกรรมสร้างแอปพลิเคชัน AI ในอุปกรณ์ที่มีประสิทธิภาพสูงในโลกแห่งความเป็นจริงโดยใช้ LiteRT และ NPU
ติดตั้งใช้งานความสามารถในการวางแผนแบบหลายขั้นตอนและแบบเอเจนต์ในอุปกรณ์ทั้งหมดด้วยตระกูล Gemma 4 และ LiteRT ใหม่
เฟรมเวิร์ก ML แบบรวมในอุปกรณ์ของ Google ซึ่งพัฒนามาจาก TFLite เพื่อการติดตั้งใช้งานที่มีประสิทธิภาพสูง
ขยายการรองรับการเร่งความเร็ว NPU ไปยังชิปเซ็ต MediaTek เพื่อ AI ที่มีประสิทธิภาพสูง
ปลดล็อกประสิทธิภาพที่ก้าวกระโดดสำหรับ Generative AI ในหน่วยประมวลผลประสาทของ Qualcomm
ขอแนะนำ CompiledModel API สำหรับการเลือกฮาร์ดแวร์อัตโนมัติและการดำเนินการแบบไม่พร้อมกัน
ติดตั้งใช้งานโมเดลภาษาบนแพลตฟอร์มที่ใช้เบราว์เซอร์และอุปกรณ์ที่สวมใส่ได้โดยใช้ LiteRT-LM
ข้อมูลเชิงลึกล่าสุดเกี่ยวกับ RAG, Multimodality และการเรียกใช้ฟังก์ชันสำหรับโมเดลภาษา Edge

เข้าร่วมชุมชน

ร่วมสนับสนุนโปรเจ็กต์โดยตรงและทำงานร่วมกับนักพัฒนาซอฟต์แวร์หลัก
เข้าถึงโมเดลแบบโอเพนเวทที่ได้รับการเพิ่มประสิทธิภาพใน Hugging Face Hub
พร้อมที่จะยกระดับ ML ในอุปกรณ์ไปอีกขั้นแล้วหรือยัง สำรวจเอกสารประกอบและเริ่มสร้างได้เลยวันนี้