Cuantiza un elemento TensorBuffer con zeroPoint y scale determinados.
Nota: QuantizeOp no convierte la salida a UINT8, pero solo realiza las matemáticas de cuantización por sobre la entrada. El tipo de datos del tensor de salida siempre es FLOAT32, con la excepción de que la Op es efectivamente una Op de identidad (en este caso, el tensor de salida es la misma instancia que la entrada). Para conectar con un modelo cuantizado, es probable que se necesite un CastOp.
Si zeroPoint y scale son 0, se omitirá QuantizeOp, lo que equivale a establecer zeroPoint en 0 y scale en 1. Esto puede ser útil cuando se pasan los parámetros de cuantización que se extraen directamente del búfer plano del modelo de TFLite. Si el tensor no está cuantizado, zeroPoint y scale se leerán como 0.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-05-14 (UTC)"],[],[]]