QuantizeOp

öffentliche Klasse QuantizeOp

Quantisiert eine TensorBuffer mit den angegebenen zeroPoint und scale.

Hinweis: QuantizeOp wandelt die Ausgabe nicht in UINT8 um, sondern führt nur die Quantisierungsberechnungen zusätzlich zur Eingabe durch. Der Datentyp des Ausgabetensors ist immer FLOAT32, mit der Ausnahme, dass der Vorgang quasi eine Identitäts-Operation ist (in diesem Fall ist der Ausgabetensor dieselbe Instanz wie die Eingabe). Um eine Verbindung zu einem quantisierten Modell herzustellen, ist wahrscheinlich ein CastOp erforderlich.

Wenn sowohl zeroPoint als auch scale 0 sind, wird QuantizeOp umgangen. Dies entspricht der Einstellung von zeroPoint auf 0 und scale auf 1. Dies kann nützlich sein, wenn Sie die Quantisierungsparameter übergeben, die direkt aus dem TFLite-Modell-Flatpuffer extrahiert werden. Wenn der Tensor nicht quantisiert ist, werden sowohl zeroPoint als auch scale als 0 gelesen.

Public Constructors

QuantizeOp(Gleitkommazahl mit NullPunkt, Gleitkommazahl)

Übernommene Methoden

Public Constructors

öffentlich QuantizeOp (Gleitkommazahl NullPoint, Gleitkommazahl)

Parameter
zeroPoint
profitieren