Có nhiều mô hình nguồn mở đã được huấn luyện mà bạn có thể sử dụng ngay với LiteRT để hoàn thành nhiều tác vụ học máy. Khi sử dụng các mô hình LiteRT được huấn luyện trước, bạn có thể nhanh chóng thêm chức năng học máy vào ứng dụng di động và ứng dụng thiết bị biên mà không cần phải tạo và huấn luyện mô hình. Hướng dẫn này giúp bạn tìm và quyết định sử dụng các mô hình đã huấn luyện với LiteRT.
Bạn có thể bắt đầu duyệt qua một tập hợp lớn các mô hình trên Kaggle Models.
Tìm một mô hình cho ứng dụng của bạn
Bạn có thể gặp khó khăn khi tìm một mô hình LiteRT hiện có cho trường hợp sử dụng của mình, tuỳ thuộc vào mục tiêu bạn đang cố gắng đạt được. Sau đây là một số cách được đề xuất để khám phá các mô hình sử dụng với LiteRT:
Theo ví dụ: Cách nhanh nhất để tìm và bắt đầu sử dụng các mô hình bằng TensorFlow Lite là duyệt qua phần Ví dụ về LiteRT để tìm các mô hình thực hiện một tác vụ tương tự như trường hợp sử dụng của bạn. Danh mục ngắn này gồm các ví dụ cung cấp mô hình cho các trường hợp sử dụng phổ biến, kèm theo nội dung giải thích về các mô hình và mã mẫu để giúp bạn bắt đầu chạy và sử dụng các mô hình đó.
Theo loại dữ liệu đầu vào: Ngoài việc xem xét các ví dụ tương tự như trường hợp sử dụng của bạn, một cách khác để khám phá các mô hình cho mục đích sử dụng của riêng bạn là xem xét loại dữ liệu bạn muốn xử lý, chẳng hạn như dữ liệu âm thanh, văn bản, hình ảnh hoặc video. Các mô hình học máy thường được thiết kế để sử dụng với một trong những loại dữ liệu này, vì vậy, việc tìm kiếm các mô hình xử lý loại dữ liệu mà bạn muốn sử dụng có thể giúp bạn thu hẹp phạm vi các mô hình cần xem xét.
Danh sách sau đây liệt kê các đường liên kết đến các mô hình LiteRT trên Kaggle Models cho các trường hợp sử dụng phổ biến:
- Mô hình phân loại hình ảnh
- Các mô hình phát hiện vật thể
- Mô hình phân loại văn bản
- Mô hình nhúng văn bản
- Mô hình tổng hợp lời nói bằng âm thanh
- Mô hình nhúng âm thanh
Chọn giữa các mô hình tương tự
Nếu ứng dụng của bạn tuân theo một trường hợp sử dụng phổ biến như phân loại hình ảnh hoặc phát hiện đối tượng, thì bạn có thể phải quyết định giữa nhiều mô hình TensorFlow Lite, với kích thước nhị phân, kích thước đầu vào dữ liệu, tốc độ suy luận và độ chính xác của dự đoán khác nhau. Khi quyết định chọn giữa một số mô hình, trước tiên, bạn nên thu hẹp các lựa chọn dựa trên hạn chế lớn nhất của mình: kích thước mô hình, kích thước dữ liệu, tốc độ suy luận hoặc độ chính xác.
Nếu bạn không chắc chắn đâu là hạn chế lớn nhất, hãy giả định đó là kích thước của mô hình và chọn mô hình nhỏ nhất có thể. Việc chọn một mô hình nhỏ sẽ mang lại cho bạn sự linh hoạt cao nhất về các thiết bị mà bạn có thể triển khai và chạy mô hình thành công. Các mô hình nhỏ hơn cũng thường tạo ra các suy luận nhanh hơn và các dự đoán nhanh hơn thường mang lại trải nghiệm tốt hơn cho người dùng cuối. Các mô hình nhỏ hơn thường có tỷ lệ chính xác thấp hơn, vì vậy, bạn có thể cần chọn các mô hình lớn hơn nếu độ chính xác của dự đoán là mối lo ngại chính của bạn.
Nguồn cho các mô hình
Sử dụng phần LiteRT Examples (Ví dụ về LiteRT) và Kaggle Models (Các mô hình Kaggle) làm đích đến đầu tiên để tìm và chọn các mô hình sử dụng với TensorFlow Lite. Các nguồn này thường có các mô hình được tuyển chọn và cập nhật để sử dụng với LiteRT, đồng thời thường có mã mẫu để tăng tốc quá trình phát triển của bạn.
Mô hình TensorFlow
Bạn có thể chuyển đổi các mô hình TensorFlow thông thường sang định dạng TensorFlow Lite. Để biết thêm thông tin về cách chuyển đổi mô hình, hãy xem tài liệu về Trình chuyển đổi TensorFlow Lite. Bạn có thể tìm thấy các mô hình TensorFlow trên Kaggle Models và trong TensorFlow Model Garden.