مترجم کلاس نهایی عمومی
کلاس درایور برای استنتاج مدل با TensorFlow Lite.
توجه: اگر به هیچ یک از ویژگیهای API "تجربی" زیر نیاز ندارید، ترجیح دهید به جای استفاده مستقیم از Interpreter از InterpreterApi و InterpreterFactory استفاده کنید.
یک Interpreter
یک مدل TensorFlow Lite از پیش آموزش دیده را محصور می کند، که در آن عملیات برای استنتاج مدل اجرا می شود.
برای مثال، اگر یک مدل فقط یک ورودی بگیرد و تنها یک خروجی را برگرداند:
try (Interpreter interpreter = new Interpreter(file_of_a_tensorflowlite_model)) {
interpreter.run(input, output);
}
اگر یک مدل چندین ورودی یا خروجی بگیرد:
Object[] inputs = {input0, input1, ...};
Map<Integer, Object> map_of_indices_to_outputs = new HashMap<>();
FloatBuffer ith_output = FloatBuffer.allocateDirect(3 * 2 * 4);