Sottoclassi dirette note |
Delega opzioni.
Corsi nidificati
enum | GpuDelegateFactory.Options.GpuBackend | Il backend GPU da selezionare. |
Costanti
int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione. |
int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Preferisco massimizzare la velocità effettiva. |
Costruttori pubblici
Opzioni()
|
Metodi pubblici
boolean | |
GpuDelegateFactory.Options.GpuBackend | |
int | |
String | |
String | |
boolean | |
GpuDelegateFactory.Options | |
GpuDelegateFactory.Options |
setInferencePreference(preferenza inte)
Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.
|
GpuDelegateFactory.Options |
setPrecisionLossAllowed(booleani precisioneLossAllowed)
Consente di impostare se la perdita di precisione è consentita.
|
GpuDelegateFactory.Options |
setQuantizedModelsAllowed(booleano quantizedModelsAllowed)
Abilita l'esecuzione di modelli quantiizzati con il delegato.
|
GpuDelegateFactory.Options |
setSerializationParams(String serializationDir, String modelToken)
Abilita la serializzazione sul delegato.
|
Metodi ereditati
Costanti
pubblica statica finale int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione.
pubblico statico finale int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Preferisco massimizzare la velocità effettiva. Lo stesso delegato verrà utilizzato ripetutamente su più input.
Costruttori pubblici
pubblica Opzioni ()
Metodi pubblici
Public booleano areQuantizedModelsAllowed ()
pubblica int getInferencePreference ()
Public booleano isPrecisionLossAllowed ()
pubblici GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
Imposta il backend della GPU.
Parametri
forceBackend |
---|
pubblici GpuDelegateFactory.Options setInferencePreference (preferenza int)
Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.
Parametri
preferenza | Uno dei valori "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (impostazione predefinita), "INFERENCE_PREFERENCE_SUSTAINED_SPEED". |
---|
pubblici GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
Consente di impostare se la perdita di precisione è consentita.
Parametri
precisionLossAllowed | Quando "true" (impostazione predefinita), la GPU può quantificare i tensori, i valori downcast e l'elaborazione in FP16. Quando il valore è "false", i calcoli vengono eseguiti in virgola mobile a 32 bit. |
---|
Public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Abilita l'esecuzione di modelli quantiizzati con il delegato.
AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.
Parametri
quantizedModelsAllowed | Quando il valore predefinito è true , la GPU può eseguire modelli quantizzati.
|
---|
Public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
Abilita la serializzazione sul delegato. Tieni presente che i valori serializationDir
e modelToken
non null sono obbligatori per la serializzazione.
AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.
Parametri
serializationDir | La directory da utilizzare per l'archiviazione dei dati. Il chiamante è responsabile di garantire che il modello non sia archiviato in una directory pubblica. È consigliabile utilizzare Context.getCodeCacheDir() per fornire una posizione privata per l'applicazione su Android. |
---|---|
modelToken | Il token da utilizzare per identificare il modello. Il chiamante è responsabile di garantire che il token sia univoco per il grafico e i dati del modello. |