Triển khai ML và AI tạo sinh hiệu suất cao trên các nền tảng biên
Lượt chuyển đổi, thời gian chạy và hoạt động tối ưu hoá hiệu quả cho công nghệ học máy trên thiết bị.
Được xây dựng dựa trên nền tảng đã được kiểm chứng của TensorFlow Lite
LiteRT không chỉ là một công cụ mới mà còn là thế hệ tiếp theo của thời gian chạy học máy được triển khai rộng rãi nhất trên thế giới. Nền tảng này hỗ trợ các ứng dụng bạn sử dụng hằng ngày, mang đến độ trễ thấp và quyền riêng tư cao trên hàng tỷ thiết bị.
Được các ứng dụng quan trọng nhất của Google tin dùng
Hơn 100.000 ứng dụng, hàng tỷ người dùng trên toàn cầu
Điểm nổi bật của LiteRT
Sẵn sàng hoạt động trên nhiều nền tảng
Khai thác sức mạnh của AI tạo sinh
Đơn giản hoá tính năng tăng tốc phần cứng
Hỗ trợ nhiều khung
Triển khai thông qua LiteRT
Lấy một mô hình
Sử dụng các mô hình được huấn luyện trước .tflite hoặc chuyển đổi các mô hình PyTorch, JAX hoặc TensorFlow sang .tflite
Tối ưu hoá mô hình
Lượng tử hoá mô hình (không bắt buộc)
Chạy
Chọn trình tăng tốc mong muốn và chạy trên LiteRT
Mẫu, mô hình và bản minh hoạ
Xem ứng dụng mẫu
Các hướng dẫn cho bạn biết cách sử dụng LiteRT với các ví dụ hoàn chỉnh từ đầu đến cuối.
Xem các mô hình AI tạo sinh
Các mô hình AI tạo sinh được huấn luyện trước và có sẵn.
Xem bản minh hoạ – Ứng dụng Thư viện
Một thư viện giới thiệu các trường hợp sử dụng AI tạo sinh/học máy trên thiết bị