| Sottoclassi dirette note |
Delega opzioni.
Corsi nidificati
| enum | GpuDelegateFactory.Options.GpuBackend | Il backend GPU da selezionare. | |
Costanti
| int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione. |
| int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Preferisco massimizzare la velocità effettiva. |
Costruttori pubblici
|
Opzioni()
|
Metodi pubblici
| boolean | |
| GpuDelegateFactory.Options.GpuBackend | |
| int | |
| String | |
| String | |
| boolean | |
| GpuDelegateFactory.Options | |
| GpuDelegateFactory.Options |
setInferencePreference(preferenza inte)
Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.
|
| GpuDelegateFactory.Options |
setPrecisionLossAllowed(booleani precisioneLossAllowed)
Consente di impostare se la perdita di precisione è consentita.
|
| GpuDelegateFactory.Options |
setQuantizedModelsAllowed(booleano quantizedModelsAllowed)
Abilita l'esecuzione di modelli quantiizzati con il delegato.
|
| GpuDelegateFactory.Options |
setSerializationParams(String serializationDir, String modelToken)
Abilita la serializzazione sul delegato.
|
Metodi ereditati
Costanti
pubblica statica finale int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione.
pubblico statico finale int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Preferisco massimizzare la velocità effettiva. Lo stesso delegato verrà utilizzato ripetutamente su più input.
Costruttori pubblici
pubblica Opzioni ()
Metodi pubblici
Public booleano areQuantizedModelsAllowed ()
pubblica int getInferencePreference ()
Public booleano isPrecisionLossAllowed ()
pubblici GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
Imposta il backend della GPU.
Parametri
| forceBackend |
|---|
pubblici GpuDelegateFactory.Options setInferencePreference (preferenza int)
Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.
Parametri
| preferenza | Uno dei valori "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (impostazione predefinita), "INFERENCE_PREFERENCE_SUSTAINED_SPEED". |
|---|
pubblici GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
Consente di impostare se la perdita di precisione è consentita.
Parametri
| precisionLossAllowed | Quando "true" (impostazione predefinita), la GPU può quantificare i tensori, i valori downcast e l'elaborazione in FP16. Quando il valore è "false", i calcoli vengono eseguiti in virgola mobile a 32 bit. |
|---|
Public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Abilita l'esecuzione di modelli quantiizzati con il delegato.
AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.
Parametri
| quantizedModelsAllowed | Quando il valore predefinito è true, la GPU può eseguire modelli quantizzati.
|
|---|
Public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
Abilita la serializzazione sul delegato. Tieni presente che i valori serializationDir e modelToken non null sono obbligatori per la serializzazione.
AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.
Parametri
| serializationDir | La directory da utilizzare per l'archiviazione dei dati. Il chiamante è responsabile di garantire che il modello non sia archiviato in una directory pubblica. È consigliabile utilizzare Context.getCodeCacheDir() per fornire una posizione privata per l'applicazione su Android. |
|---|---|
| modelToken | Il token da utilizzare per identificare il modello. Il chiamante è responsabile di garantire che il token sia univoco per il grafico e i dati del modello. |