Halaman ini menyediakan panduan untuk membangun model TensorFlow dengan tujuan untuk mengonversi ke format model LiteRT. Mesin model pembelajaran (ML) yang Anda gunakan dengan LiteRT pada awalnya dibangun dan dilatih menggunakan alat dan library inti TensorFlow. Setelah Anda membangun model dengan TensorFlow core, Anda dapat mengubahnya menjadi model ML yang lebih kecil dan efisien format yang disebut model LiteRT.
Jika Anda sudah memiliki model untuk dikonversi, lihat panduan Mengonversi model untuk panduan mengonversi model Anda.
Membuat model
Jika sedang membangun model kustom untuk kasus penggunaan tertentu, Anda harus mulai mengembangkan dan melatih model TensorFlow atau memperluas model yang sudah ada.
Batasan desain model
Sebelum memulai proses pengembangan model, Anda harus mengetahui untuk model LiteRT dan mem-build model dengan batasan tersebut:
- Kemampuan komputasi yang terbatas - Dibandingkan dengan server yang dilengkapi dengan beberapa CPU, kapasitas memori tinggi, dan prosesor khusus seperti GPU dan TPU, perangkat seluler dan edge jauh lebih terbatas. Meskipun mereka yang terus berkembang dalam daya komputasi dan kompatibilitas hardware khusus, model dan data yang dapat Anda proses secara efektif dengan mereka masih relatif terbatas.
- Ukuran model - Kompleksitas keseluruhan model, termasuk data dan jumlah lapisan dalam model, akan meningkatkan ukuran dalam memori model. Model besar mungkin berjalan sangat lambat atau hanya mungkin tidak muat dalam memori perangkat seluler atau edge.
- Ukuran data - Ukuran data input yang dapat diproses secara efektif dengan model machine learning terbatas di perangkat seluler atau edge. Model yang menggunakan library data besar seperti library bahasa, library gambar, atau koleksi klip video yang mungkin tidak muat di perangkat ini, dan mungkin memerlukan penyimpanan di luar perangkat dan solusi akses.
- Operasi TensorFlow yang didukung - Lingkungan runtime LiteRT mendukung subset operasi model machine learning dibandingkan dengan model TensorFlow. Saat mengembangkan model untuk digunakan dengan LiteRT, Anda harus melacak kompatibilitas model terhadap kemampuan Lingkungan runtime LiteRT.
Untuk informasi selengkapnya, cara membangun model performa tinggi yang efektif, kompatibel, dan tinggi untuk LiteRT, lihat Praktik terbaik performa.
Pengembangan model
Untuk membangun model LiteRT, Anda harus membangun model terlebih dahulu menggunakan library inti TensorFlow. Library inti TensorFlow memiliki level lebih rendah library yang menyediakan API untuk membangun, melatih, dan men-deploy model ML.
TensorFlow menyediakan dua jalur untuk melakukan hal ini. Anda dapat mengembangkan kode model lama atau Anda dapat memulai dengan implementasi model yang tersedia di TensorFlow Model Garden.
Model Garden
TensorFlow Model Garden menyediakan implementasi banyak model machine learning (ML) untuk visi dan natural language processing (NLP). Anda juga akan menemukan alat alur kerja yang memungkinkan Anda dengan cepat mengkonfigurasi dan menjalankan model pada set data standar. Model machine learning di Model Garden menyertakan kode lengkap sehingga Anda dapat menguji, melatih, atau melatih kembali mereka menggunakan {i>dataset<i} aslinya.
Baik Anda ingin membandingkan performa model yang sudah dikenal luas, hasil penelitian yang baru-baru ini dirilis, atau mengembangkan model yang sudah ada, Garden dapat membantu Anda mencapai sasaran ML.
Model kustom
Jika kasus penggunaan Anda berada di luar yang didukung oleh model di Model Garden, Anda dapat menggunakan library tingkat tinggi seperti Keras untuk mengembangkan kode pelatihan kustom Anda. Untuk mempelajari dasar-dasar TensorFlow, lihat Panduan TensorFlow. Untuk mulai menggunakan contoh, lihat tutorial TensorFlow ringkasan yang berisi pointer untuk mulai dari tutorial tingkat ahli.
Evaluasi model
Setelah mengembangkan model, Anda harus mengevaluasi kinerja dan menguji pada perangkat pengguna akhir. TensorFlow menyediakan beberapa cara untuk melakukannya.
- TensorBoard adalah alat untuk menyediakan pengukuran dan visualisasi yang diperlukan selama alur kerja machine learning. Pengujian ini memungkinkan pelacakan metrik eksperimen seperti kerugian dan akurasi, memvisualisasikan grafik model, memproyeksikan embedding di ruang dimensi, dan banyak lagi.
- Alat tolok ukur tersedia untuk setiap alat yang didukung seperti aplikasi tolok ukur Android dan aplikasi tolok ukur iOS. Gunakan alat ini untuk mengukur dan menghitung statistik untuk performa penting metrik.
Pengoptimalan model
Dengan batasan pada resource khusus untuk TensorFlow Model ringan, pengoptimalan model dapat membantu memastikan performa model Anda dengan baik dan menggunakan lebih sedikit resource komputasi. Performa model machine learning biasanya keseimbangan antara ukuran dan kecepatan inferensi vs akurasi. LiteRT saat ini mendukung pengoptimalan melalui kuantisasi, pemangkasan, dan pengelompokan. Lihat topik pengoptimalan model untuk detail lebih lanjut tentang yang berbeda. TensorFlow juga menyediakan Pengoptimalan model toolkit yang menyediakan API yang menerapkan perintah yang berbeda.
Langkah berikutnya
- Untuk mulai membuat model kustom, lihat memulai cepat untuk pemula di dokumentasi inti TensorFlow.
- Untuk mengonversi model TensorFlow kustom, lihat artikel Mengonversi model ringkasan.
- Lihat panduan kompatibilitas operator untuk menentukan apakah model Anda kompatibel dengan LiteRT atau jika Anda harus mengambil langkah tambahan untuk membuatnya kompatibel.
- Lihat panduan praktik terbaik performa untuk mendapatkan panduan tentang membuat model LiteRT Anda efisien dan berperforma tinggi.
- Lihat panduan metrik performa untuk mempelajari cara mengukur performa model Anda menggunakan alat tolok ukur.