Ada berbagai model open source yang sudah dilatih dan dapat Anda gunakan segera dengan LiteRT untuk menyelesaikan banyak tugas machine learning. Dengan menggunakan model LiteRT terlatih, Anda dapat menambahkan fungsi machine learning ke aplikasi perangkat mobile dan edge dengan cepat, tanpa harus membuat dan melatih model. Panduan ini membantu Anda menemukan dan memutuskan model terlatih untuk digunakan dengan LiteRT.
Anda dapat mulai menjelajahi kumpulan besar model di Kaggle Models.
Menemukan model untuk aplikasi Anda
Menemukan model LiteRT yang ada untuk kasus penggunaan Anda bisa jadi rumit, bergantung pada apa yang ingin Anda capai. Berikut beberapa cara yang direkomendasikan untuk menemukan model yang akan digunakan dengan LiteRT:
Dengan contoh: Cara tercepat untuk menemukan dan mulai menggunakan model dengan TensorFlow Lite adalah dengan menjelajahi bagian Contoh LiteRT untuk menemukan model yang melakukan tugas yang serupa dengan kasus penggunaan Anda. Katalog singkat contoh ini menyediakan model untuk kasus penggunaan umum dengan penjelasan model dan contoh kode untuk membantu Anda mulai menjalankan dan menggunakan model tersebut.
Menurut jenis input data: Selain melihat contoh yang serupa dengan kasus penggunaan Anda, cara lain untuk menemukan model untuk penggunaan Anda sendiri adalah dengan mempertimbangkan jenis data yang ingin Anda proses, seperti data audio, teks, gambar, atau video. Model machine learning sering kali dirancang untuk digunakan dengan salah satu jenis data ini, jadi mencari model yang menangani jenis data yang ingin Anda gunakan dapat membantu Anda mempersempit pilihan model yang perlu dipertimbangkan.
Berikut adalah daftar link ke model LiteRT di Kaggle Models untuk kasus penggunaan umum:
- Model klasifikasi gambar
- Model deteksi objek
- Model klasifikasi teks
- Model penyematan teks
- Model sintesis ucapan audio
- Model embedding audio
Memilih di antara model serupa
Jika aplikasi Anda mengikuti kasus penggunaan umum seperti klasifikasi gambar atau deteksi objek, Anda mungkin harus memutuskan antara beberapa model TensorFlow Lite, dengan berbagai ukuran biner, ukuran input data, kecepatan inferensi, dan rating akurasi prediksi. Saat memutuskan antara sejumlah model, Anda harus mempersempit opsi berdasarkan batasan yang paling membatasi: ukuran model, ukuran data, kecepatan inferensi, atau akurasi.
Jika Anda tidak yakin apa batasan yang paling membatasi, anggaplah itu adalah ukuran model dan pilih model terkecil yang tersedia. Memilih model kecil memberi Anda fleksibilitas terbesar dalam hal perangkat tempat Anda dapat men-deploy dan menjalankan model dengan berhasil. Model yang lebih kecil juga biasanya menghasilkan inferensi yang lebih cepat, dan prediksi yang lebih cepat umumnya menciptakan pengalaman pengguna akhir yang lebih baik. Model yang lebih kecil biasanya memiliki tingkat akurasi yang lebih rendah, jadi Anda mungkin perlu memilih model yang lebih besar jika akurasi prediksi adalah perhatian utama Anda.
Sumber untuk model
Gunakan bagian Contoh LiteRT dan Model Kaggle sebagai tujuan pertama Anda untuk menemukan dan memilih model yang akan digunakan dengan TensorFlow Lite. Sumber ini umumnya memiliki model pilihan yang terbaru untuk digunakan dengan LiteRT, dan sering kali menyertakan contoh kode untuk mempercepat proses pengembangan Anda.
Model TensorFlow
Model TensorFlow biasa dapat dikonversi ke format TensorFlow Lite. Untuk mengetahui informasi selengkapnya tentang cara mengonversi model, lihat dokumentasi TensorFlow Lite Converter. Anda dapat menemukan model TensorFlow di Kaggle Models dan di TensorFlow Model Garden.