Mô hình được huấn luyện trước cho LiteRT

Bạn có thể sử dụng nhiều mô hình nguồn mở, đã được đào tạo ngay lập tức với LiteRT để hoàn thành nhiều nhiệm vụ của công nghệ học máy. Việc sử dụng các mô hình LiteRT được huấn luyện trước sẽ cho phép bạn thêm công nghệ học máy vào ứng dụng trên thiết bị di động và thiết bị Edge của bạn một cách nhanh chóng mà không phải để tạo và huấn luyện một mô hình. Hướng dẫn này giúp bạn tìm và quyết định về những nội dung được đào tạo để sử dụng với LiteRT.

Bạn có thể bắt đầu duyệt qua một loạt mô hình trên Kaggle Mẫu sản phẩm.

Tìm mô hình cho ứng dụng của bạn

Việc tìm được một mô hình LiteRT hiện có cho trường hợp sử dụng của bạn có thể rất khó khăn tuỳ thuộc vào mục tiêu bạn đang cố gắng đạt được. Sau đây là một vài cách được đề xuất để khám phá các mô hình để sử dụng với LiteRT:

Bằng ví dụ: Cách nhanh nhất để tìm và bắt đầu sử dụng mô hình với TensorFlow Lite là duyệt qua LiteRT Ví dụ để tìm các mô hình thực hiện tác vụ tương tự như trường hợp sử dụng của bạn. Danh mục ngắn gồm các ví dụ này cung cấp mô hình cho các trường hợp sử dụng phổ biến với nội dung giải thích về các mô hình và mã mẫu để giúp bạn bắt đầu chạy và sử dụng chúng.

Theo loại dữ liệu đầu vào: Ngoài việc xem xét các ví dụ tương tự như trường hợp sử dụng của bạn, một cách khác để khám phá các mô hình cho mục đích sử dụng của riêng bạn là xem xét loại dữ liệu mà bạn muốn xử lý, chẳng hạn như dữ liệu âm thanh, văn bản, hình ảnh hoặc video. Máy các mô hình học tập thường được thiết kế để sử dụng với một trong các loại dữ liệu này, nên việc tìm các mô hình xử lý loại dữ liệu bạn muốn sử dụng có thể giúp bạn để thu hẹp những mô hình cần xem xét.

Dưới đây là danh sách các đường liên kết đến các mô hình LiteRT trên Kaggle Mô hình cho các trường hợp sử dụng phổ biến:

Chọn trong các mẫu máy tương tự

Nếu ứng dụng của bạn tuân theo một trường hợp sử dụng phổ biến, chẳng hạn như phân loại hình ảnh hoặc phát hiện đối tượng, bạn có thể phải tự quyết định giữa nhiều TensorFlow Mô hình thu gọn với kích thước nhị phân, kích thước đầu vào dữ liệu, tốc độ suy luận và mức độ chính xác của thông tin dự đoán. Khi lựa chọn giữa một số mô hình, bạn nên thu hẹp các lựa chọn của mình dựa trên hạn chế hạn chế nhất trước tiên: kích thước của mô hình, kích thước dữ liệu, tốc độ suy luận hoặc độ chính xác.

Nếu bạn không chắc chắn ràng buộc hạn chế nhất của mình là gì, hãy giả định đó là kích thước của mô hình và chọn mô hình nhỏ nhất sẵn có. Việc chọn một mô hình nhỏ sẽ giúp bạn có thể linh hoạt nhất về các thiết bị mà bạn có thể triển khai và chạy mô hình. Các mô hình nhỏ hơn cũng thường cho ra kết quả nhanh hơn suy luận và dự đoán nhanh hơn thường mang lại cho người dùng cuối tốt hơn của bạn. Các mô hình nhỏ hơn thường có tỷ lệ chính xác thấp hơn, vì vậy bạn có thể cần để chọn các mô hình lớn hơn nếu độ chính xác của dự đoán là mối quan tâm chính của bạn.

Nguồn cho mô hình

Sử dụng LiteRT Ví dụMô hình Kaggle dưới dạng điểm đến đầu tiên của bạn để tìm và chọn các mô hình sử dụng với TensorFlow Phiên bản Những nguồn này thường có các mô hình mới nhất, được tuyển chọn để sử dụng cùng LiteRT và thường xuyên bao gồm mã mẫu để tăng tốc quá trình phát triển ứng dụng.

Mô hình TensorFlow

Bạn có thể chuyển đổi các mô hình TensorFlow thông thường thành TensorFlow Định dạng thu gọn. Để biết thêm thông tin về cách chuyển đổi mô hình, hãy xem TensorFlow Tài liệu về Trình chuyển đổi Lite. Bạn có thể tìm thấy các mô hình TensorFlow trên Mô hình Kaggle và trong Mô hình TensorFlow Vườn.