public class
QuantizeOp
指定された zeroPoint
と scale
で TensorBuffer
を量子化します。
注: QuantizeOp
は出力を UINT8 にキャストするのではなく、入力に対して量子化計算のみを実行します。出力テンソルのデータ型は常に FLOAT32
です。ただし、Op が実質的にアイデンティティ Op である点が異なります(この場合、出力テンソルは入力と同じインスタンスになります)。量子化モデルに接続するには、おそらく CastOp
が必要です。
zeroPoint
と scale
の両方が 0 の場合、QuantizeOp
はバイパスされます。これは、zeroPoint
を 0、scale
を 1 に設定した場合と同等です。これは、TFLite モデルのフラットバッファから直接抽出された量子化パラメータを渡す場合に便利です。テンソルが量子化されていない場合、zeroPoint
と scale
はどちらも 0 として読み取られます。
パブリック コンストラクタ
QuantizeOp(float zeroPoint、float scale)
|
継承されるメソッド
パブリック コンストラクタ
public QuantizeOp (float zeroPoint, float scale)
パラメータ
zeroPoint | |
---|---|
WAF によるメリット |