Kwantyzuje TensorBuffer z danymi zeroPoint i scale.
Uwaga: QuantizeOp nie przesyła danych wyjściowych do UINT8, a jedynie wykonuje obliczenia na danych wejściowych. Typ danych tensora wyjściowego to zawsze FLOAT32, z wyjątkiem tego, że operacja jest w rzeczywistości operatorem tożsamości (w tym przypadku tensor wyjściowy jest taki sam jak instancja wejściowa). Aby połączyć się z modelem skwantyzowanym, prawdopodobnie potrzebny jest CastOp.
Jeśli zarówno zeroPoint, jak i scale mają wartość 0, QuantizeOp jest pomijany, co odpowiada ustawieniu zeroPoint na 0, a scale na 1. Może to być przydatne podczas przekazywania parametrów kwantyzacji, które są pobierane bezpośrednio z płaskiego bufora modelu TFLite. Jeśli tensor nie jest poddany kwantyzacji, zarówno zeroPoint, jak i scale otrzymają wartość 0.
[[["Łatwo zrozumieć","easyToUnderstand","thumb-up"],["Rozwiązało to mój problem","solvedMyProblem","thumb-up"],["Inne","otherUp","thumb-up"]],[["Brak potrzebnych mi informacji","missingTheInformationINeed","thumb-down"],["Zbyt skomplikowane / zbyt wiele czynności do wykonania","tooComplicatedTooManySteps","thumb-down"],["Nieaktualne treści","outOfDate","thumb-down"],["Problem z tłumaczeniem","translationIssue","thumb-down"],["Problem z przykładami/kodem","samplesCodeIssue","thumb-down"],["Inne","otherDown","thumb-down"]],["Ostatnia aktualizacja: 2025-07-24 UTC."],[],[]]