Quantifica um TensorBuffer com zeroPoint e scale especificados.
Observação: o QuantizeOp não transmite a saída para o UINT8, mas executa apenas o cálculo da quantização
sobre a entrada. O tipo de dados do tensor de saída é sempre FLOAT32, exceto que a operação é efetivamente uma operação de identidade. Nesse caso, o tensor de saída é a mesma instância que a entrada. Para conectar com um modelo quantizado, um CastOp provavelmente é necessário.
Se zeroPoint e scale forem 0, o QuantizeOp será ignorado, o que equivale a definir zeroPoint como 0 e scale como 1. Isso pode ser útil ao transmitir os parâmetros de quantização que são extraídos diretamente do flatbuffer do modelo do TFLite. Se o tensor não for quantizado, zeroPoint e scale serão lidos como 0.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-07-24 UTC."],[],[]]