알려진 간접 하위 클래스 |
실험용 메서드를 제외한 TensorFlow Lite 모델 인터프리터에 대한 인터페이스입니다.
InterpreterApi
인스턴스는 모델 추론을 위해 작업이 실행되는 선행 학습된 TensorFlow Lite 모델을 캡슐화합니다.
예를 들어 모델이 하나의 입력만 취하고 하나의 출력만 반환하는 경우 다음과 같습니다.
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.run(input, output);
}
모델이 여러 입력 또는 출력을 사용하는 경우:
Object[] inputs = {input0, input1, ...};
Map<Integer, Object> map_of_indices_to_outputs = new HashMap<>();
FloatBuffer ith_output = FloatBuffer.allocateDirect(3 * 2 * 4); // Float tensor, shape 3x2x4.
ith_output.order(ByteOrder.nativeOrder());
map_of_indices_to_outputs.put(i, ith_output);
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(inputs, map_of_indices_to_outputs);
}
모델이 문자열 텐서를 취하거나 생성하는 경우:
String[] input = {"foo", "bar"}; // Input tensor shape is [2].
String[][] output = new String[3][2]; // Output tensor shape is [3, 2].
try (InterpreterApi interpreter =
new InterpreterApi.create(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(input, output);
}
도형 [] 과 모양[1]은 다릅니다. 스칼라 문자열 텐서 출력:
String[] input = {"foo"}; // Input tensor shape is [1].
ByteBuffer outputBuffer = ByteBuffer.allocate(OUTPUT_BYTES_SIZE); // Output tensor shape is [].
try (Interpreter interpreter = new Interpreter(file_of_a_tensorflowlite_model)) {
interpreter.runForMultipleInputsOutputs(input, outputBuffer);
}
byte[] outputBytes = new byte[outputBuffer.remaining()];
outputBuffer.get(outputBytes);
// Below, the `charset` can be StandardCharsets.UTF_8.
String output = new String(outputBytes, charset);
입력 및 출력 순서는 입력의 기본 형태와 마찬가지로 Toco를 사용하여 TensorFlow 모델을 TensorFlowLite 모델로 변환할 때 결정됩니다.
입력이 다차원 배열로 제공되면 해당 배열의 형태에 따라 해당 입력 텐서의 크기가 암시적으로 조정됩니다. 입력이 Buffer
유형으로 제공되는 경우 암시적인 크기 조절은 수행되지 않습니다. 호출자는 Buffer
바이트 크기가 해당 텐서의 크기와 일치하거나 먼저 resizeInput(int, int[])
를 통해 텐서의 크기를 조절해야 합니다. 텐서 형태 및 유형 정보는 getInputTensor(int)
및 getOutputTensor(int)
를 통해 사용 가능한 Tensor
클래스를 통해 가져올 수 있습니다.
경고:InterpreterApi
인스턴스는 스레드로부터 안전하지 않습니다.
경고: InterpreterApi
인스턴스는 close()
를 호출하여 명시적으로 해제해야 하는 리소스를 소유합니다.
TFLite 라이브러리는 NDK API 19를 기반으로 빌드됩니다. Android API 수준 19 미만에서 작동할 수도 있지만 보장되지는 않습니다.
중첩된 클래스
클래스 | InterpreterApi.Options | 런타임 인터프리터 동작을 제어하기 위한 옵션 클래스 |
공개 메서드
추상 void |
allocateTensors()
필요한 경우 모든 텐서의 할당을 명시적으로 업데이트합니다.
|
추상 void |
close()
InterpreterApi 인스턴스와 연결된 리소스를 해제합니다. |
정적 InterpreterApi | |
정적 InterpreterApi |
create(ByteBuffer byteBuffer, InterpreterApi.Options options)
지정된 모델과 옵션을 사용하여
InterpreterApi 인스턴스를 생성합니다. |
추상 정수 | |
추상 텐서 |
getInputTensor(int inputIndex)
제공된 입력 색인과 연결된 텐서를 가져옵니다.
|
추상 정수 |
getInputTensorCount()
입력 텐서 수를 가져옵니다.
|
추상화 긴 버전 |
getLastNativeInferenceDurationNanoseconds()
네이티브 추론 타이밍을 반환합니다.
|
추상 정수 | |
추상 텐서 |
getOutputTensor(int outputIndex)
제공된 출력 색인과 연결된 텐서를 가져옵니다.
|
추상 정수 |
getOutputTensorCount()
출력 텐서의 수를 가져옵니다.
|
추상 void |
resizeInput(int idx, int[] dims, boolean strict)
네이티브 모델의 idx번째 입력의 크기를 지정된 희미값으로 조절합니다.
|
추상 void |
resizeInput(int idx, int[] dims)
네이티브 모델의 idx번째 입력의 크기를 지정된 희미값으로 조절합니다.
|
추상 void | |
추상 void |
runForMultipleInputsOutputs(Object[] 입력, Map<Integer, Object> 출력)
모델이 여러 입력을 사용하거나 여러 출력을 반환하는 경우 모델 추론을 실행합니다.
|
상속된 메서드
공개 메서드
public 추상화 void allocateTensors ()
필요한 경우 모든 텐서의 할당을 명시적으로 업데이트합니다.
지정된 입력 텐서 형태를 사용하여 종속 텐서의 형태 및 메모리 할당을 전파합니다.
참고: 이 호출은 *전적으로 선택사항*입니다. 입력 텐서의 크기가 조절된 경우 실행 중에 텐서 할당이 자동으로 발생합니다. 이 호출은 그래프를 실행하기 전에 모든 출력 텐서의 형태를 결정하는 데 가장 유용합니다(예:
interpreter.resizeInput(0, new int[]{1, 4, 4, 3}));
interpreter.allocateTensors();
FloatBuffer input = FloatBuffer.allocate(interpreter.getInputTensor(0).numElements());
// Populate inputs...
FloatBuffer output = FloatBuffer.allocate(interpreter.getOutputTensor(0).numElements());
interpreter.run(input, output)
// Process outputs...
참고: 일부 그래프는 동적으로 출력되는 출력을 가지며, 이 경우 추론이 실행될 때까지 출력 모양이 완전히 전파되지 않을 수 있습니다.
생성 값
IllegalStateException | 를 반환합니다. |
---|
public 추상 void close ()
InterpreterApi
인스턴스와 연결된 리소스를 해제합니다.
public static InterpreterApi create (File modelFile, InterpreterApi.Options 옵션)
지정된 모델과 옵션을 사용하여 InterpreterApi
인스턴스를 생성합니다. 모델은 파일에서 로드됩니다.
매개변수
modelFile | 선행 학습된 TF Lite 모델이 포함된 파일입니다. |
---|---|
옵션 | 인터프리터 동작을 맞춤설정하기 위한 옵션 집합입니다. |
생성 값
IllegalArgumentException | modelFile 가 유효한 TensorFlow Lite 모델을 인코딩하지 않는 경우
|
---|
public static InterpreterApi create (ByteBuffer byteBuffer, InterpreterApi.Options 옵션)
지정된 모델과 옵션을 사용하여 InterpreterApi
인스턴스를 생성합니다. 모델은 ByteBuffer
에서 읽습니다.
매개변수
byteBuffer | 바이너리 직렬화 형식으로 선행 학습된 TF Lite 모델입니다. InterpreterApi 인스턴스를 생성한 후에는 ByteBuffer를 수정하면 안 됩니다. ByteBuffer 는 모델 파일을 메모리 매핑하는 MappedByteBuffer 이거나 모델의 바이트 콘텐츠를 포함하는 nativeOrder()의 직접적인 ByteBuffer 일 수 있습니다. |
---|---|
옵션 | 인터프리터 동작을 맞춤설정하기 위한 옵션 집합입니다. |
생성 값
IllegalArgumentException | byteBuffer 이 MappedByteBuffer 이 아니거나 nativeOrder의 직접 ByteBuffer 가 아닌 경우입니다.
|
---|
public summary int getInputIndex (String opName)
입력의 작업 이름에 따라 입력의 색인을 가져옵니다.
매개변수
opName |
---|
생성 값
IllegalArgumentException | opName 가 인터프리터를 초기화하는 데 사용된 모델의 입력과 일치하지 않는 경우
|
---|
public 추상 Tensor getInputTensor (int inputIndex)
제공된 입력 색인과 연결된 텐서를 가져옵니다.
매개변수
inputIndex |
---|
생성 값
IllegalArgumentException | inputIndex 가 음수이거나 모델 입력의 수보다 작지 않은 경우입니다.
|
---|
public 추상화 int getInputTensorCount ()
입력 텐서 수를 가져옵니다.
public 추상화 긴 getLastNativeInferenceDurationNanoseconds ()
네이티브 추론 타이밍을 반환합니다.
생성 값
IllegalArgumentException | 모델이 인터프리터에 의해 초기화되지 않은 경우입니다. |
---|
public 추상화 int getOutputIndex (String opName)
출력의 작업 이름을 고려하여 출력의 색인을 가져옵니다.
매개변수
opName |
---|
생성 값
IllegalArgumentException | opName 가 인터프리터를 초기화하는 데 사용된 모델의 출력과 일치하지 않는 경우
|
---|
public 추상 Tensor getOutputTensor (int outputIndex)
제공된 출력 색인과 연결된 텐서를 가져옵니다.
참고: 출력 텐서 세부정보 (예: 셰이프)는 추론이 실행될 때까지 완전히 채워지지 않을 수도 있습니다. 추론을 실행하기 *전에* 세부정보를 업데이트해야 하는 경우 (예: 입력 텐서 크기를 조절하여 출력 텐서 형태가 무효화될 수 있음) allocateTensors()
를 사용하여 할당 및 형태 전파를 명시적으로 트리거합니다. 입력 *값*에 종속되는 출력 모양이 있는 그래프의 경우 추론을 실행할 때까지 출력 모양이 완전히 결정되지 않을 수 있습니다.
매개변수
outputIndex |
---|
생성 값
IllegalArgumentException | outputIndex 가 음수이거나 모델 출력 수보다 작지 않은 경우입니다.
|
---|
public summary int getOutputTensorCount ()
출력 텐서의 수를 가져옵니다.
public 추상화 void resizeInput (int idx, int[] dims, boolean strict)
네이티브 모델의 idx번째 입력의 크기를 지정된 희미값으로 조절합니다.
`strict` 가 True인 경우 알 수 없는 측정기준만 크기를 조절할 수 있습니다. 알 수 없는 차원은 `Tensor.shapeSignature()`에서 반환된 배열에 `-1`로 표시됩니다.
매개변수
idx | |
---|---|
dims | |
strict |
생성 값
IllegalArgumentException | idx 가 음수이거나 모델 입력의 수보다 작지 않은 경우 또는 idx-번째 입력의 크기를 조절할 때 오류가 발생하는 경우 또한 `strict` 가 True일 때 고정 크기로 텐서의 크기를 조절하려고 하면 오류가 발생합니다.
|
---|
public 추상화 void resizeInput (int idx, int[] dims)
네이티브 모델의 idx번째 입력의 크기를 지정된 희미값으로 조절합니다.
매개변수
idx | |
---|---|
dims |
생성 값
IllegalArgumentException | idx 가 음수이거나 모델 입력의 수보다 작지 않은 경우 또는 idx-번째 입력의 크기를 조절할 때 오류가 발생하는 경우
|
---|
public 추상화 void run (객체 입력, 객체 출력)
모델에서 하나의 입력만 사용하고 하나의 출력만 제공하는 경우 모델 추론을 실행합니다.
경고: Buffer
(권장적이지만 필수는 아님)를 입력/출력 데이터 유형으로 사용하는 경우 API가 더 효율적입니다. 성능 향상을 위해 Buffer
을(를) 사용하여 원시 데이터를 제공하고
가져오는 것을 고려해 보세요. 다음과 같은 구체적인 Buffer
유형이 지원됩니다.
ByteBuffer
- 모든 기본 원시 텐서 유형과 호환됩니다.FloatBuffer
- float 텐서와 호환됩니다.IntBuffer
- int32 텐서와 호환됩니다.LongBuffer
- int64 텐서와 호환됩니다.
Buffer
또는 스칼라 입력으로는 지원되지 않습니다.매개변수
입력 | 배열 또는 다차원 배열 또는 기본형(int, float, long, byte)의 Buffer 입니다. 원시 유형의 경우 대규모 입력 데이터를 전달하는 데 선호되는 방법은 Buffer 이고, 문자열 유형에는 다차원 배열 입력 경로를 사용해야 합니다. Buffer 가 사용되는 경우 모델 추론이 완료될 때까지 콘텐츠가 변경되지 않아야 하며 호출자는 Buffer 가 적절한 읽기 위치에 있는지 확인해야 합니다. null 값은 호출자가 버퍼 핸들 상호 운용성을 허용하는 Delegate 를 사용하고 이러한 버퍼가 입력 Tensor 에 바인딩된 경우에만 허용됩니다. |
---|---|
출력 | 출력 데이터의 다차원 배열 또는 기본형(int, float, long, byte)의 Buffer 입니다. Buffer 가 사용된 경우 호출자는 적절한 쓰기 위치로 설정되어 있는지 확인해야 합니다. null 값이 허용되며, 호출자가 버퍼 핸들 상호 운용성을 허용하는 Delegate 를 사용 중이고 이러한 버퍼가 출력 Tensor 에 바인딩된 경우(Interpreter.Options#setAllowBufferHandleOutput(boolean) 참고) 또는 그래프에 동적으로 형태가 지정된 경우 호출자가 추론을 호출한 후 Tensor.asReadOnlyBuffer() 에서 직접 데이터를 가져와 출력 Tensor 형태를 쿼리해야 하는 경우 유용합니다. |
생성 값
IllegalArgumentException | input 가 null이거나 비어 있는 경우 또는 추론을 실행할 때 오류가 발생하는 경우입니다. |
---|---|
IllegalArgumentException | (실험용, 변경될 수 있음) setCancelled(true) 에 의해 추론이 중단되는 경우.
|
public 추상화 void runForMultipleInputsOutputs (Object[] input, Map<Integer, Object> 출력)
모델이 여러 입력을 사용하거나 여러 출력을 반환하는 경우 모델 추론을 실행합니다.
경고: Buffer
(권장적이지만 필수는 아님)를 입력/출력 데이터 유형으로 사용하는 경우 API가 더 효율적입니다. 성능 향상을 위해 Buffer
을(를) 사용하여 원시 데이터를 제공하고
가져오는 것을 고려해 보세요. 다음과 같은 구체적인 Buffer
유형이 지원됩니다.
ByteBuffer
- 모든 기본 원시 텐서 유형과 호환됩니다.FloatBuffer
- float 텐서와 호환됩니다.IntBuffer
- int32 텐서와 호환됩니다.LongBuffer
- int64 텐서와 호환됩니다.
Buffer
또는 스칼라 입력으로는 지원되지 않습니다.
참고: inputs
및 outputs
의 개별 요소에 대한 null
값은 호출자가 버퍼 핸들 상호 운용성을 허용하는 Delegate
를 사용하고 이러한 버퍼가 상응하는 입력 또는 출력 Tensor
에 바인딩된 경우에만 허용됩니다.
매개변수
입력 | 입력 데이터의 배열입니다. 입력의 순서는 모델 입력과 동일해야 합니다. 각 입력은 배열 또는 다차원 배열이거나 기본형(int, float, long, byte)의 Buffer 일 수 있습니다. Buffer 는 대규모 입력 데이터를 전달하는 데 선호되는 방법이고, 문자열 유형에는 다차원 배열 입력 경로를 사용해야 합니다. Buffer 가 사용되는 경우 모델 추론이 완료될 때까지 콘텐츠가 변경되지 않아야 하며 호출자는 Buffer 가 적절한 읽기 위치에 있는지 확인해야 합니다. |
---|---|
출력 | 출력 색인을 다차원 배열로 매핑하거나 int, float, long, byte를 비롯한 원시 유형의 Buffer 에 매핑합니다. 항목을 유지하기만 하면 출력을 사용할 수 있습니다. Buffer 가 사용된 경우 호출자는 적절한 쓰기 위치로 설정되어 있는지 확인해야 합니다. 버퍼 핸들이 출력 텐서 데이터에 사용되는 경우 또는 출력이 동적으로 형성되고 호출자가 추론을 호출한 후 Tensor 출력 셰이프를 쿼리하여 Tensor.asReadOnlyBuffer() 을 통해 출력 텐서에서 직접 데이터를 가져와야 하는 경우 맵이 비어 있을 수 있습니다. |
생성 값
IllegalArgumentException | inputs 이 null이거나 비어 있는 경우 또는 outputs 가 null인 경우 또는 추론을 실행할 때 오류가 발생하는 경우입니다.
|
---|