Quantizza un valore TensorBuffer
con i zeroPoint
e i scale
specificati.
Nota: QuantizeOp
non trasmette l'output a UINT8, ma esegue solo il calcolo della quantizzazione
in cima all'input. Il tipo di dati del tensore di output è sempre FLOAT32
, tranne per il fatto che l'Operations è effettivamente un'operatoria di identità (in questo caso, il tensore di output è la stessa istanza dell'input). Per connettersi con il modello quantizzato, probabilmente è necessario un CastOp
.
Se zeroPoint
e scale
sono entrambi pari a 0, QuantizeOp
verrà ignorato, il che equivale a impostare zeroPoint
su 0 e scale
su 1. Questo può essere utile
durante il trasferimento dei parametri di quantizzazione che vengono estratti direttamente dal flatbuffer del modello TFLite. Se il tensore non è quantizzato, sia zeroPoint
sia scale
verranno letti
come 0.
Costruttori pubblici
QuantizeOp(zeroPoint in virgola mobile, scala a virgola mobile)
|
Metodi ereditati
Costruttori pubblici
pubblici QuantizeOp (zeroPoint in virgola mobile, scala in virgola mobile)
Parametri
zeroPoint | |
---|---|
scalabilità |