Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
kelas publik QuantizeOp
Menghitung TensorBuffer dengan zeroPoint dan scale yang ditentukan.
Catatan: QuantizeOp tidak mentransmisikan output ke UINT8, tetapi hanya melakukan penghitungan kuantisasi di atas input. Jenis data tensor output selalu FLOAT32, kecuali bahwa Op pada dasarnya merupakan Op identitas (dalam hal ini, tensor output adalah instance yang sama dengan input). Untuk terhubung dengan model terkuantisasi, CastOp mungkin diperlukan.
Jika zeroPoint dan scale bernilai 0, QuantizeOp akan diabaikan, yang setara dengan menetapkan zeroPoint ke 0 dan scale ke 1. Ini dapat berguna
saat meneruskan parameter kuantisasi yang diekstrak langsung dari flatbuffer
model TFLite. Jika tensor tidak dikuantisasi, zeroPoint dan scale akan dibaca
sebagai 0.