공개 정적 클래스 GpuDelegateFactory.Options
알려진 직접 서브클래스 |
위임 옵션을 클릭합니다.
중첩된 클래스
enum | GpuDelegateFactory.Options.GpuBackend | 선택할 GPU 백엔드 |
상수
int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | 위임은 한 번만 사용되므로 부트스트랩/초기화 시간을 고려해야 합니다. |
int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | 처리량 최대화를 우선합니다. |
공개 생성자
옵션()
|
공개 메서드
boolean | |
GpuDelegateFactory.Options.GpuBackend | |
int | |
String | |
String | |
boolean | |
GpuDelegateFactory.Options | |
GpuDelegateFactory.Options |
setInferencePreference(int Preferences)
정밀도/컴파일/런타임 절충에 대한 추론 환경설정을 설정합니다.
|
GpuDelegateFactory.Options |
setPrecisionLossAllowed(부울 정밀도LossAllowed)
정밀도 손실을 허용할지 여부를 설정합니다.
|
GpuDelegateFactory.Options |
setQuantizedModelsAllowed(부울 quantizedModelsAllowed)
위임을 사용하여 양자화 모델을 실행할 수 있습니다.
|
GpuDelegateFactory.Options |
상속된 메서드
상수
public static Final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
위임은 한 번만 사용되므로 부트스트랩/초기화 시간을 고려해야 합니다.
상수 값:
0
public static Final int INFERENCE_PREFERENCE_SUSTAINED_SPEED
처리량 최대화를 우선합니다. 동일한 위임이 여러 입력에 반복적으로 사용됩니다.
상수 값:
1
공개 생성자
public 옵션 ()
공개 메서드
public 부울 areQuantizedModelsAllowed ()
public int getInferencePreference ()
public boolean isPrecisionLossAllowed ()
공개 GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
GPU 백엔드를 설정합니다.
매개변수
forceBackend |
---|
공개 GpuDelegateFactory.Options setInferencePreference (int Preferences)
정밀도/컴파일/런타임 절충에 대한 추론 환경설정을 설정합니다.
매개변수
preference | `INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER` 중 하나 (기본값), `INFERENCE_PREFERENCE_SUSTAINED_SPEED` |
---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
정밀도 손실을 허용할지 여부를 설정합니다.
매개변수
precisionLossAllowed | 'true'(기본값)인 경우 GPU가 FP16에서 텐서, 다운캐스트 값, 처리를 수량화할 수 있습니다. 'false'인 경우 계산은 32비트 부동 소수점으로 실행됩니다. |
---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
위임을 사용하여 양자화 모델을 실행할 수 있습니다.
경고: 실험용 API이며 변경될 수 있습니다.
매개변수
quantizedModelsAllowed | true (기본값)인 경우 GPU가 양자화된 모델을 실행할 수 있습니다.
|
---|
public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
위임에서 직렬화를 사용 설정합니다. 직렬화를 위해서는 null이 아닌 serializationDir
및 modelToken
가 필요합니다.
경고: 실험용 API이며 변경될 수 있습니다.
매개변수
serializationDir | 데이터 저장에 사용할 디렉터리입니다. 호출자는 모델이 공개 디렉터리에 저장되지 않도록 해야 합니다. Context.getCodeCacheDir() 를 사용하여 Android의 애플리케이션에 비공개 위치를 제공하는 것이 좋습니다. |
---|---|
modelToken | 모델을 식별하는 데 사용할 토큰입니다. 호출자는 토큰이 모델 그래프 및 데이터에 대해 고유한지 확인해야 합니다. |