Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
öffentliche Klasse
QuantizeOp
Quantisiert eine TensorBuffer mit den angegebenen zeroPoint und scale.
Hinweis: QuantizeOp wandelt die Ausgabe nicht in UINT8 um, sondern führt nur die Quantisierungsberechnungen zusätzlich zur Eingabe durch. Der Datentyp des Ausgabetensors ist immer FLOAT32, mit der Ausnahme, dass der Vorgang quasi eine Identitäts-Operation ist (in diesem Fall ist der Ausgabetensor dieselbe Instanz wie die Eingabe). Um eine Verbindung zu einem quantisierten Modell herzustellen, ist wahrscheinlich ein CastOp erforderlich.
Wenn sowohl zeroPoint als auch scale 0 sind, wird QuantizeOp umgangen. Dies entspricht der Einstellung von zeroPoint auf 0 und scale auf 1. Dies kann nützlich sein, wenn Sie die Quantisierungsparameter übergeben, die direkt aus dem TFLite-Modell-Flatpuffer extrahiert werden. Wenn der Tensor nicht quantisiert ist, werden sowohl zeroPoint als auch scale als 0 gelesen.
Public Constructors
QuantizeOp(Gleitkommazahl mit NullPunkt, Gleitkommazahl)