Znane podklasy bezpośrednie |
Opcje przekazywania dostępu.
Zagnieżdżone klasy
enum | typ wyliczeniowy | GpuDelegateFactory.Options.GpuBackend | Backend GPU, który chcesz wybrać. |
Stałe
int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Przekazywanie dostępu jest używane tylko raz, dlatego należy wziąć pod uwagę czas wczytywania i uruchamiania. |
int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Wolę zmaksymalizować przepustowość. |
Konstruktorzy publiczni
Opcje()
|
Metody publiczne
boolean | |
GpuDelegateFactory.Options.GpuBackend | |
int | |
String | |
String | |
boolean | |
GpuDelegateFactory.Options | |
GpuDelegateFactory.Options |
setInferencePreference(preferencje integrujące).
Ustawia preferencje wnioskowania na potrzeby kompilacji w zakresie precyzji, kompilacji i czasu działania.
|
GpuDelegateFactory.Options |
setPrecisionLossAllowed(wartość logicznego rodzaju precyzji LossAllowed)
Określa, czy dozwolona jest utrata precyzji.
|
GpuDelegateFactory.Options |
setQuantizedModelsAllowed(wartość logiczna quantizedModelsAllowed)
Umożliwia uruchamianie modeli poddanych kwantyzacji z użyciem delegata.
|
GpuDelegateFactory.Options |
setSerializationParams(String serializationDir, String modelToken)
Umożliwia serializację na przedstawicieli.
|
Metody dziedziczone
Stałe
public static final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Przekazywanie dostępu jest używane tylko raz, dlatego należy wziąć pod uwagę czas wczytywania i uruchamiania.
public static final int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Wolę zmaksymalizować przepustowość. Ta sama osoba z przekazanym dostępem będzie używana wielokrotnie na różnych wejściach.
Konstruktorzy publiczni
public Opcje ()
Metody publiczne
public boolean areQuantizedModelsAllowed ()
public int getInferencePreference ()
public boolean isPrecisionLossAllowed ()
public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
Ustawia backend GPU.
Parametry
forceBackend |
---|
public GpuDelegateFactory.Options setInferencePreference (int preferred)
Ustawia preferencje wnioskowania na potrzeby kompilacji w zakresie precyzji, kompilacji i czasu działania.
Parametry
preferencja | Jedna z wartości „INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER” (domyślna), „INFERENCE_PREFERENCE_SUSTAINED_SPEED”. |
---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
Określa, czy dozwolona jest utrata precyzji.
Parametry
precisionLossAllowed | Gdy wartość „true” (prawda) jest ustawiona jako domyślna, GPU może ilościowo mierzyć tensory, zmniejszać wartości i przetwarzać w FP16. W przypadku wartości „false” obliczenia są wykonywane w 32-bitowym formacie zmiennoprzecinkowej. |
---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Umożliwia uruchamianie modeli poddanych kwantyzacji z użyciem delegata.
OSTRZEŻENIE: to jest eksperymentalny interfejs API, który może ulec zmianie.
Parametry
quantizedModelsAllowed | Gdy zasada jest ustawiona na true (ustawienie domyślne), w GPU mogą być uruchamiane modele poddane kwantyzacji.
|
---|
public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
Umożliwia serializację na przedstawicieli. Pamiętaj, że do serializacji wymagane są niepuste wartości serializationDir
i modelToken
.
OSTRZEŻENIE: to jest eksperymentalny interfejs API, który może ulec zmianie.
Parametry
serializationDir | Katalog, w którym będą przechowywane dane. Wywołujący odpowiada za to, aby model nie był przechowywany w katalogu publicznym. Do określenia prywatnej lokalizacji aplikacji na Androidzie zalecamy użycie Context.getCodeCacheDir() . |
---|---|
modelToken | Token, który służy do identyfikowania modelu. Wywołujący odpowiada za to, aby token był unikalny dla wykresu i danych modelu. |