Được xây dựng dựa trên nền tảng đã được kiểm chứng của TensorFlow Lite
LiteRT không chỉ là một công cụ mới mà còn là thế hệ tiếp theo của thời gian chạy học máy được triển khai rộng rãi nhất trên thế giới. Nền tảng này hỗ trợ các ứng dụng bạn sử dụng hằng ngày, mang đến độ trễ thấp và quyền riêng tư cao trên hàng tỷ thiết bị.
Được các ứng dụng quan trọng nhất của Google tin dùng
Hơn 100.000 ứng dụng, hàng tỷ người dùng trên toàn cầu
Điểm nổi bật của LiteRT
Sẵn sàng hoạt động trên nhiều nền tảng
Khai thác AI tạo sinh
Đơn giản hoá tính năng tăng tốc phần cứng
Hỗ trợ nhiều khung
Triển khai thông qua LiteRT
Đơn giản hoá quy trình học sâu từ việc huấn luyện đến triển khai trên thiết bị.
1.Lấy một mô hình
Sử dụng các mô hình được huấn luyện trước .tflite hoặc chuyển đổi các mô hình PyTorch, JAX hoặc TensorFlow sang .tflite.
2.Tối ưu hoá
Sử dụng bộ công cụ tối ưu hoá LiteRT để lượng tử hoá các mô hình sau khi huấn luyện.
3.Chạy
Triển khai mô hình của bạn bằng LiteRT và chọn bộ tăng tốc tối ưu cho ứng dụng.
Chọn lộ trình phát triển
Sử dụng LiteRT để triển khai AI ở mọi nơi – từ các ứng dụng di động hiệu suất cao đến các thiết bị IoT bị hạn chế về tài nguyên.
Người dùng TFLite hiện tại
Chuyển sang LiteRT để tận dụng hiệu suất nâng cao và API hợp nhất trên nhiều nền tảng (Android, Máy tính, Web).
BYOM : Mang theo mô hình của riêng bạn
Có một mô hình PyTorch và muốn triển khai các trải nghiệm về thị giác hoặc âm thanh trên thiết bị.
Triển khai mô hình AI tạo sinh
Tạo chatbot tinh vi trên thiết bị bằng cách sử dụng các mô hình AI tạo sinh có trọng số mở được tối ưu hoá như Gemma hoặc một mô hình có trọng số mở khác.
[Nâng cao] Chuyên gia về mô hình
Tạo các mô hình tuỳ chỉnh hoặc thực hiện các quy trình tối ưu hoá chuyên sâu về CPU/GPU/NPU dành riêng cho phần cứng để đạt hiệu suất cao nhất.
Mẫu, mô hình và bản minh hoạ
Xem ứng dụng mẫu LiteRT trên GitHub
Ứng dụng mẫu hoàn chỉnh, toàn diện.
Xem các mô hình AI tạo sinh
Các mô hình AI tạo sinh được huấn luyện trước và có sẵn.
Xem bản minh hoạ – Ứng dụng Google AI Edge Gallery
Một thư viện minh hoạ các trường hợp sử dụng ML/AI tạo sinh trên thiết bị bằng LiteRT.
Blog và thông báo
Nắm bắt những thông báo mới nhất, thông tin chuyên sâu về kỹ thuật và điểm chuẩn hiệu suất của nhóm LiteRT.
LiteRT: Khung chung cho AI trên thiết bị
Khung ML hợp nhất trên thiết bị của Google, phát triển từ TFLite để triển khai hiệu suất cao.
NPU và LiteRT của MediaTek: Hỗ trợ AI trên thiết bị thế hệ mới
Mở rộng khả năng hỗ trợ tăng tốc NPU cho các bộ vi xử lý MediaTek để có AI hiệu suất cao.
Khai thác hiệu suất tối đa trên NPU Qualcomm bằng LiteRT
Khai thác hiệu suất đột phá cho AI tạo sinh trên Bộ xử lý nơ-ron của Qualcomm.
LiteRT: Tối đa hoá hiệu suất, đơn giản hoá
Ra mắt CompiledModel API để tự động chọn phần cứng và thực thi không đồng bộ.
GenAI trên thiết bị trong Chrome, Chromebook Plus và Pixel Watch bằng LiteRT-LM
Triển khai các mô hình ngôn ngữ trên các nền tảng dựa trên trình duyệt và thiết bị đeo bằng LiteRT-LM.
Mô hình ngôn ngữ nhỏ, đa phương thức và gọi hàm của Google AI Edge
Thông tin chi tiết mới nhất về RAG, tính năng đa phương thức và gọi hàm cho các mô hình ngôn ngữ biên
Tham gia cộng đồng
Cộng đồng LiteRT trên GitHub
Đóng góp trực tiếp cho dự án và cộng tác với các nhà phát triển cốt lõi.
Hugging Face Hub
Truy cập vào các mô hình mã nguồn mở được tối ưu hoá trên Hugging Face Hub.