Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
classe pubblica
QuantizeOp
Quantizza un valore TensorBuffer con i zeroPoint e i scale specificati.
Nota: QuantizeOp non trasmette l'output a UINT8, ma esegue solo il calcolo della quantizzazione
in cima all'input. Il tipo di dati del tensore di output è sempre FLOAT32, tranne per il fatto che l'Operations è effettivamente un'operatoria di identità (in questo caso, il tensore di output è la stessa istanza dell'input). Per connettersi con il modello quantizzato, probabilmente è necessario un CastOp.
Se zeroPoint e scale sono entrambi pari a 0, QuantizeOp verrà ignorato, il che equivale a impostare zeroPoint su 0 e scale su 1. Questo può essere utile
durante il trasferimento dei parametri di quantizzazione che vengono estratti direttamente dal flatbuffer del modello TFLite. Se il tensore non è quantizzato, sia zeroPoint sia scale verranno letti
come 0.
Costruttori pubblici
QuantizeOp(zeroPoint in virgola mobile, scala a virgola mobile)