Lượt chuyển đổi, thời gian chạy và hoạt động tối ưu hoá hiệu quả cho công nghệ học máy trên thiết bị.
LiteRT không chỉ là một công cụ mới mà còn là thế hệ tiếp theo của thời gian chạy học máy được triển khai rộng rãi nhất trên thế giới. Nền tảng này hỗ trợ các ứng dụng bạn sử dụng hằng ngày, mang đến độ trễ thấp và quyền riêng tư cao trên hàng tỷ thiết bị.

Được các ứng dụng quan trọng nhất của Google tin dùng

Hơn 100.000 ứng dụng, hàng tỷ người dùng trên toàn cầu

Điểm nổi bật của LiteRT

Triển khai thông qua LiteRT

Đơn giản hoá quy trình học sâu từ việc huấn luyện đến triển khai trên thiết bị.
Sử dụng các mô hình được huấn luyện trước .tflite hoặc chuyển đổi các mô hình PyTorch, JAX hoặc TensorFlow sang .tflite.
Sử dụng bộ công cụ tối ưu hoá LiteRT để lượng tử hoá các mô hình sau khi huấn luyện.
Triển khai mô hình của bạn bằng LiteRT và chọn bộ tăng tốc tối ưu cho ứng dụng.

Chọn lộ trình phát triển

Sử dụng LiteRT để triển khai AI ở mọi nơi – từ các ứng dụng di động hiệu suất cao đến các thiết bị IoT bị hạn chế về tài nguyên.
Chuyển sang LiteRT để tận dụng hiệu suất nâng cao và API hợp nhất trên nhiều nền tảng (Android, Máy tính, Web).
Có một mô hình PyTorch và muốn triển khai các trải nghiệm về thị giác hoặc âm thanh trên thiết bị.
Tạo chatbot tinh vi trên thiết bị bằng cách sử dụng các mô hình AI tạo sinh có trọng số mở được tối ưu hoá như Gemma hoặc một mô hình có trọng số mở khác.
Tạo các mô hình tuỳ chỉnh hoặc thực hiện các quy trình tối ưu hoá chuyên sâu về CPU/GPU/NPU dành riêng cho phần cứng để đạt hiệu suất cao nhất.

Mẫu, mô hình và bản minh hoạ

Ứng dụng mẫu hoàn chỉnh, toàn diện.
Các mô hình AI tạo sinh được huấn luyện trước và có sẵn.
Một thư viện minh hoạ các trường hợp sử dụng ML/AI tạo sinh trên thiết bị bằng LiteRT.

Blog và thông báo

Nắm bắt những thông báo mới nhất, thông tin chuyên sâu về kỹ thuật và điểm chuẩn hiệu suất của nhóm LiteRT.
Khung ML hợp nhất trên thiết bị của Google, phát triển từ TFLite để triển khai hiệu suất cao.
Mở rộng khả năng hỗ trợ tăng tốc NPU cho các bộ vi xử lý MediaTek để có AI hiệu suất cao.
Khai thác hiệu suất đột phá cho AI tạo sinh trên Bộ xử lý nơ-ron của Qualcomm.
Ra mắt CompiledModel API để tự động chọn phần cứng và thực thi không đồng bộ.
Triển khai các mô hình ngôn ngữ trên các nền tảng dựa trên trình duyệt và thiết bị đeo bằng LiteRT-LM.
Thông tin chi tiết mới nhất về RAG, tính năng đa phương thức và gọi hàm cho các mô hình ngôn ngữ biên

Tham gia cộng đồng

Đóng góp trực tiếp cho dự án và cộng tác với các nhà phát triển cốt lõi.
Truy cập vào các mô hình mã nguồn mở được tối ưu hoá trên Hugging Face Hub.
Bạn đã sẵn sàng nâng tầm công nghệ học máy trên thiết bị của mình? Khám phá tài liệu và bắt đầu xây dựng ngay hôm nay.