QuantizeOp

classe pubblica QuantizeOp

Quantizza un valore TensorBuffer con i zeroPoint e i scale specificati.

Nota: QuantizeOp non trasmette l'output a UINT8, ma esegue solo il calcolo della quantizzazione in cima all'input. Il tipo di dati del tensore di output è sempre FLOAT32, tranne per il fatto che l'Operations è effettivamente un'operatoria di identità (in questo caso, il tensore di output è la stessa istanza dell'input). Per connettersi con il modello quantizzato, probabilmente è necessario un CastOp.

Se zeroPoint e scale sono entrambi pari a 0, QuantizeOp verrà ignorato, il che equivale a impostare zeroPoint su 0 e scale su 1. Questo può essere utile durante il trasferimento dei parametri di quantizzazione che vengono estratti direttamente dal flatbuffer del modello TFLite. Se il tensore non è quantizzato, sia zeroPoint sia scale verranno letti come 0.

Costruttori pubblici

QuantizeOp(zeroPoint in virgola mobile, scala a virgola mobile)

Metodi ereditati

Costruttori pubblici

pubblici QuantizeOp (zeroPoint in virgola mobile, scala in virgola mobile)

Parametri
zeroPoint
scalabilità