Model terlatih untuk TensorFlow Lite

Ada berbagai model open source yang sudah dilatih yang dapat langsung Anda gunakan dengan TensorFlow Lite untuk menyelesaikan berbagai tugas machine learning. Dengan model TensorFlow Lite terlatih, Anda dapat menambahkan fungsi machine learning ke aplikasi perangkat seluler dan edge dengan cepat, tanpa harus membangun dan melatih model. Panduan ini membantu Anda menemukan dan memutuskan model terlatih untuk digunakan dengan TensorFlow Lite.

Anda dapat mulai menjelajahi banyak sekali model di Model Kaggle.

Temukan model untuk aplikasi Anda

Menemukan model TensorFlow Lite yang ada untuk kasus penggunaan Anda bisa jadi sulit, bergantung pada apa yang ingin Anda capai. Berikut adalah beberapa cara yang direkomendasikan untuk menemukan model yang akan digunakan dengan TensorFlow Lite:

Melalui contoh: Cara tercepat untuk menemukan dan mulai menggunakan model dengan TensorFlow Lite adalah dengan menjelajahi bagian Contoh TensorFlow Lite untuk menemukan model yang menjalankan tugas yang mirip dengan kasus penggunaan Anda. Katalog singkat contoh ini menyediakan model untuk kasus penggunaan umum dengan penjelasan tentang model dan kode contoh agar Anda dapat mulai menjalankan dan menggunakannya.

Menurut jenis input data: Selain melihat contoh yang serupa dengan kasus penggunaan Anda, cara lain untuk menemukan model untuk Anda gunakan sendiri adalah dengan mempertimbangkan jenis data yang ingin Anda proses, seperti data audio, teks, gambar, atau video. Model machine learning sering kali dirancang untuk digunakan dengan salah satu jenis data tersebut. Oleh karena itu, mencari model yang menangani jenis data yang ingin Anda gunakan dapat membantu Anda mempersempit model yang perlu dipertimbangkan.

Bagian berikut mencantumkan link ke model TensorFlow Lite di Model Kaggle untuk kasus penggunaan umum:

Memilih di antara model yang serupa

Jika aplikasi mengikuti kasus penggunaan umum seperti klasifikasi gambar atau deteksi objek, Anda dapat memutuskan untuk memilih beberapa model TensorFlow Lite, dengan berbagai ukuran biner, ukuran input data, kecepatan inferensi, dan rating akurasi prediksi. Saat memutuskan di antara sejumlah model, Anda harus mempersempit opsi berdasarkan batasan yang paling membatasi: ukuran model, ukuran data, kecepatan inferensi, atau akurasi.

Jika Anda tidak yakin dengan batasan yang paling membatasi, asumsikan bahwa ukuran tersebut adalah ukuran model dan pilih model terkecil yang tersedia. Memilih model kecil akan memberi Anda fleksibilitas paling besar dalam hal perangkat tempat Anda berhasil men-deploy dan menjalankan model. Model yang lebih kecil juga biasanya menghasilkan inferensi yang lebih cepat, dan prediksi yang lebih cepat umumnya akan memberikan pengalaman pengguna akhir yang lebih baik. Model yang lebih kecil biasanya memiliki tingkat akurasi yang lebih rendah, sehingga Anda mungkin perlu memilih model yang lebih besar jika akurasi prediksi menjadi perhatian utama Anda.

Sumber untuk model

Gunakan bagian Contoh TensorFlow Lite dan Model Kaggle sebagai tujuan pertama Anda untuk menemukan dan memilih model yang akan digunakan dengan TensorFlow Lite. Sumber ini umumnya memiliki model terbaru dan terseleksi untuk digunakan dengan TensorFlow Lite, dan sering menyertakan kode contoh untuk mempercepat proses pengembangan.

Model TensorFlow

Anda dapat mengonversi model TensorFlow reguler ke format TensorFlow Lite. Untuk mengetahui informasi selengkapnya tentang mengonversi model, lihat dokumentasi Konverter TensorFlow Lite. Anda dapat menemukan model TensorFlow di Model Kaggle dan di TensorFlow Model Garden.