GpuDelegateFactory.Options

공개 정적 클래스 GpuDelegateFactory.Options
알려진 직접 서브클래스

위임 옵션을 클릭합니다.

중첩된 클래스

enum GpuDelegateFactory.Options.GpuBackend 선택할 GPU 백엔드

상수

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER 위임은 한 번만 사용되므로 부트스트랩/초기화 시간을 고려해야 합니다.
int INFERENCE_PREFERENCE_SUSTAINED_SPEED 처리량 최대화를 우선합니다.

공개 생성자

옵션()

공개 메서드

boolean
GpuDelegateFactory.Options.GpuBackend
int
String
String
boolean
GpuDelegateFactory.Options
setForceBackend(GpuDelegateFactory.Options.GpuBackend forceBackend)
GPU 백엔드를 설정합니다.
GpuDelegateFactory.Options
setInferencePreference(int Preferences)
정밀도/컴파일/런타임 절충에 대한 추론 환경설정을 설정합니다.
GpuDelegateFactory.Options
setPrecisionLossAllowed(부울 정밀도LossAllowed)
정밀도 손실을 허용할지 여부를 설정합니다.
GpuDelegateFactory.Options
setQuantizedModelsAllowed(부울 quantizedModelsAllowed)
위임을 사용하여 양자화 모델을 실행할 수 있습니다.
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
위임에서 직렬화를 사용 설정합니다.

상속된 메서드

상수

public static Final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

위임은 한 번만 사용되므로 부트스트랩/초기화 시간을 고려해야 합니다.

상수 값: 0

public static Final int INFERENCE_PREFERENCE_SUSTAINED_SPEED

처리량 최대화를 우선합니다. 동일한 위임이 여러 입력에 반복적으로 사용됩니다.

상수 값: 1

공개 생성자

public 옵션 ()

공개 메서드

public 부울 areQuantizedModelsAllowed ()

공개 GpuDelegateFactory.Options.GpuBackend getForceBackend ()

public int getInferencePreference ()

공개 문자열 getModelToken ()

public String getSerializationDir ()

public boolean isPrecisionLossAllowed ()

공개 GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)

GPU 백엔드를 설정합니다.

매개변수
forceBackend

공개 GpuDelegateFactory.Options setInferencePreference (int Preferences)

정밀도/컴파일/런타임 절충에 대한 추론 환경설정을 설정합니다.

매개변수
preference `INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER` 중 하나 (기본값), `INFERENCE_PREFERENCE_SUSTAINED_SPEED`

public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

정밀도 손실을 허용할지 여부를 설정합니다.

매개변수
precisionLossAllowed 'true'(기본값)인 경우 GPU가 FP16에서 텐서, 다운캐스트 값, 처리를 수량화할 수 있습니다. 'false'인 경우 계산은 32비트 부동 소수점으로 실행됩니다.

public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

위임을 사용하여 양자화 모델을 실행할 수 있습니다.

경고: 실험용 API이며 변경될 수 있습니다.

매개변수
quantizedModelsAllowed true (기본값)인 경우 GPU가 양자화된 모델을 실행할 수 있습니다.

public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)

위임에서 직렬화를 사용 설정합니다. 직렬화를 위해서는 null이 아닌 serializationDirmodelToken가 필요합니다.

경고: 실험용 API이며 변경될 수 있습니다.

매개변수
serializationDir 데이터 저장에 사용할 디렉터리입니다. 호출자는 모델이 공개 디렉터리에 저장되지 않도록 해야 합니다. Context.getCodeCacheDir()를 사용하여 Android의 애플리케이션에 비공개 위치를 제공하는 것이 좋습니다.
modelToken 모델을 식별하는 데 사용할 토큰입니다. 호출자는 토큰이 모델 그래프 및 데이터에 대해 고유한지 확인해야 합니다.