Model terlatih untuk LiteRT

Ada berbagai model open source yang sudah terlatih yang dapat Anda gunakan segera dengan LiteRT untuk menyelesaikan banyak tugas machine learning. Dengan model LiteRT terlatih, Anda dapat menambahkan machine learning fungsionalitasnya ke aplikasi perangkat seluler dan edge dengan cepat, tanpa harus untuk membangun dan melatih model. Panduan ini membantu Anda menemukan dan memutuskan khusus untuk digunakan dengan LiteRT.

Anda dapat mulai menjelajahi banyak sekali model di Kaggle Model.

Temukan model untuk aplikasi Anda

Menemukan model LiteRT yang ada untuk kasus penggunaan Anda bisa jadi sulit tergantung pada apa yang ingin Anda capai. Berikut beberapa cara yang direkomendasikan untuk menemukan model untuk digunakan dengan LiteRT:

Berdasarkan contoh: Cara tercepat untuk menemukan dan mulai menggunakan model dengan TensorFlow Lite adalah menjelajahi LiteRT Contoh untuk menemukan model yang menjalankan tugas yang serupa dengan kasus penggunaan Anda. Katalog singkat yang berisi contoh ini menyediakan model untuk kasus penggunaan umum dengan penjelasan model dan kode contoh untuk membantu Anda mulai menjalankan dan menggunakan mereka.

Menurut jenis input data: Selain melihat contoh yang mirip dengan kasus penggunaan Anda, cara lain untuk menemukan model untuk Anda gunakan sendiri adalah dengan mempertimbangkan jenis data yang ingin Anda proses, misalnya data audio, teks, gambar, atau video. Mesin model machine learning dirancang sering untuk digunakan dengan salah satu jenis data ini, Jadi, mencari model yang menangani jenis data yang ingin Anda gunakan dapat membantu mempersempit model apa yang akan dipertimbangkan.

Berikut ini daftar tautan ke model LiteRT di Kaggle Model untuk kasus penggunaan umum:

Memilih di antara model yang serupa

Jika aplikasi Anda mengikuti kasus penggunaan umum seperti klasifikasi gambar atau deteksi objek, Anda mungkin akan memutuskan antara beberapa TensorFlow Model ringan, dengan berbagai ukuran biner, ukuran {i>input <i}data, kecepatan inferensi, dan tingkat akurasi prediksi. Saat memutuskan di antara sejumlah model, Anda harus mempersempit pilihan Anda terlebih dahulu pada batasan yang paling membatasi: ukuran model, ukuran data, kecepatan inferensi, atau akurasi.

Jika Anda tidak yakin dengan batasan yang paling tidak Anda perlukan, asumsikan itu adalah ukurannya model dan memilih model terkecil yang tersedia. Memilih model kecil akan memberi fleksibilitas paling besar dalam hal perangkat yang memungkinkan Anda men-deploy dan menjalankan model. Model yang lebih kecil biasanya juga menghasilkan model inferensi, dan prediksi yang lebih cepat umumnya menciptakan pengalaman pengguna akhir yang lebih baik. pengalaman yang lancar bagi developer. Model yang lebih kecil biasanya memiliki tingkat akurasi yang lebih rendah, sehingga Anda mungkin perlu untuk memilih model yang lebih besar jika akurasi prediksi menjadi perhatian utama Anda.

Sumber untuk model

Menggunakan LiteRT Contoh dan Model Kaggle sebagai tujuan pertama Anda untuk menemukan dan memilih model yang akan digunakan dengan TensorFlow Ringan. Sumber ini umumnya memiliki model hasil seleksi terbaru untuk digunakan dengan LiteRT, dan secara rutin menyertakan kode contoh untuk mempercepat proses pengembangan Anda.

Model TensorFlow

Anda dapat mengonversi model TensorFlow reguler ke TensorFlow Format Lite. Untuk informasi selengkapnya tentang mengonversi model, lihat TensorFlow Lite Converter. Anda dapat menemukan model TensorFlow di Model Kaggle dan dalam Model TensorFlow Taman.