| Znane podklasy bezpośrednie |
Opcje przekazywania dostępu.
Zagnieżdżone klasy
| enum | typ wyliczeniowy | GpuDelegateFactory.Options.GpuBackend | Backend GPU, który chcesz wybrać. | |
Stałe
| int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Przekazywanie dostępu jest używane tylko raz, dlatego należy wziąć pod uwagę czas wczytywania i uruchamiania. |
| int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Wolę zmaksymalizować przepustowość. |
Konstruktorzy publiczni
|
Opcje()
|
Metody publiczne
| boolean | |
| GpuDelegateFactory.Options.GpuBackend | |
| int | |
| String | |
| String | |
| boolean | |
| GpuDelegateFactory.Options | |
| GpuDelegateFactory.Options |
setInferencePreference(preferencje integrujące).
Ustawia preferencje wnioskowania na potrzeby kompilacji w zakresie precyzji, kompilacji i czasu działania.
|
| GpuDelegateFactory.Options |
setPrecisionLossAllowed(wartość logicznego rodzaju precyzji LossAllowed)
Określa, czy dozwolona jest utrata precyzji.
|
| GpuDelegateFactory.Options |
setQuantizedModelsAllowed(wartość logiczna quantizedModelsAllowed)
Umożliwia uruchamianie modeli poddanych kwantyzacji z użyciem delegata.
|
| GpuDelegateFactory.Options |
setSerializationParams(String serializationDir, String modelToken)
Umożliwia serializację na przedstawicieli.
|
Metody dziedziczone
Stałe
public static final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Przekazywanie dostępu jest używane tylko raz, dlatego należy wziąć pod uwagę czas wczytywania i uruchamiania.
public static final int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Wolę zmaksymalizować przepustowość. Ta sama osoba z przekazanym dostępem będzie używana wielokrotnie na różnych wejściach.
Konstruktorzy publiczni
public Opcje ()
Metody publiczne
public boolean areQuantizedModelsAllowed ()
public int getInferencePreference ()
public boolean isPrecisionLossAllowed ()
public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
Ustawia backend GPU.
Parametry
| forceBackend |
|---|
public GpuDelegateFactory.Options setInferencePreference (int preferred)
Ustawia preferencje wnioskowania na potrzeby kompilacji w zakresie precyzji, kompilacji i czasu działania.
Parametry
| preferencja | Jedna z wartości „INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER” (domyślna), „INFERENCE_PREFERENCE_SUSTAINED_SPEED”. |
|---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
Określa, czy dozwolona jest utrata precyzji.
Parametry
| precisionLossAllowed | Gdy wartość „true” (prawda) jest ustawiona jako domyślna, GPU może ilościowo mierzyć tensory, zmniejszać wartości i przetwarzać w FP16. W przypadku wartości „false” obliczenia są wykonywane w 32-bitowym formacie zmiennoprzecinkowej. |
|---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Umożliwia uruchamianie modeli poddanych kwantyzacji z użyciem delegata.
OSTRZEŻENIE: to jest eksperymentalny interfejs API, który może ulec zmianie.
Parametry
| quantizedModelsAllowed | Gdy zasada jest ustawiona na true (ustawienie domyślne), w GPU mogą być uruchamiane modele poddane kwantyzacji.
|
|---|
public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
Umożliwia serializację na przedstawicieli. Pamiętaj, że do serializacji wymagane są niepuste wartości serializationDir i modelToken.
OSTRZEŻENIE: to jest eksperymentalny interfejs API, który może ulec zmianie.
Parametry
| serializationDir | Katalog, w którym będą przechowywane dane. Wywołujący odpowiada za to, aby model nie był przechowywany w katalogu publicznym. Do określenia prywatnej lokalizacji aplikacji na Androidzie zalecamy użycie Context.getCodeCacheDir(). |
|---|---|
| modelToken | Token, który służy do identyfikowania modelu. Wywołujący odpowiada za to, aby token był unikalny dla wykresu i danych modelu. |