GpuDelegateFactory.Options

classe statica pubblica GpuDelegateFactory.Options
Sottoclassi dirette note

Delega opzioni.

Corsi nidificati

enum GpuDelegateFactory.Options.GpuBackend Il backend GPU da selezionare. 

Costanti

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione.
int INFERENCE_PREFERENCE_SUSTAINED_SPEED Preferisco massimizzare la velocità effettiva.

Costruttori pubblici

Metodi pubblici

boolean
GpuDelegateFactory.Options.GpuBackend
int
String
String
boolean
GpuDelegateFactory.Options
setForceBackend(GpuDelegateFactory.Options.GpuBackend forceBackend)
Imposta il backend della GPU.
GpuDelegateFactory.Options
setInferencePreference(preferenza inte)
Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.
GpuDelegateFactory.Options
setPrecisionLossAllowed(booleani precisioneLossAllowed)
Consente di impostare se la perdita di precisione è consentita.
GpuDelegateFactory.Options
setQuantizedModelsAllowed(booleano quantizedModelsAllowed)
Abilita l'esecuzione di modelli quantiizzati con il delegato.
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
Abilita la serializzazione sul delegato.

Metodi ereditati

Costanti

pubblica statica finale int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

Il delegato verrà utilizzato una sola volta, pertanto il tempo di bootstrap/init deve essere preso in considerazione.

Valore costante: 0

pubblico statico finale int INFERENCE_PREFERENCE_SUSTAINED_SPEED

Preferisco massimizzare la velocità effettiva. Lo stesso delegato verrà utilizzato ripetutamente su più input.

Valore costante: 1

Costruttori pubblici

pubblica Opzioni ()

Metodi pubblici

Public booleano areQuantizedModelsAllowed ()

pubblici GpuDelegateFactory.Options.GpuBackend getForceBackend ()

pubblica int getInferencePreference ()

Public String getModelToken ()

pubblici Stringa getSerializationDir ()

Public booleano isPrecisionLossAllowed ()

pubblici GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)

Imposta il backend della GPU.

Parametri
forceBackend

pubblici GpuDelegateFactory.Options setInferencePreference (preferenza int)

Imposta la preferenza di inferenza per i compromessi precisione/compilazione/runtime.

Parametri
preferenza Uno dei valori "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (impostazione predefinita), "INFERENCE_PREFERENCE_SUSTAINED_SPEED".

pubblici GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

Consente di impostare se la perdita di precisione è consentita.

Parametri
precisionLossAllowed Quando "true" (impostazione predefinita), la GPU può quantificare i tensori, i valori downcast e l'elaborazione in FP16. Quando il valore è "false", i calcoli vengono eseguiti in virgola mobile a 32 bit.

Public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

Abilita l'esecuzione di modelli quantiizzati con il delegato.

AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.

Parametri
quantizedModelsAllowed Quando il valore predefinito è true, la GPU può eseguire modelli quantizzati.

Public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)

Abilita la serializzazione sul delegato. Tieni presente che i valori serializationDir e modelToken non null sono obbligatori per la serializzazione.

AVVISO: si tratta di un'API sperimentale ed è soggetta a modifiche.

Parametri
serializationDir La directory da utilizzare per l'archiviazione dei dati. Il chiamante è responsabile di garantire che il modello non sia archiviato in una directory pubblica. È consigliabile utilizzare Context.getCodeCacheDir() per fornire una posizione privata per l'applicazione su Android.
modelToken Il token da utilizzare per identificare il modello. Il chiamante è responsabile di garantire che il token sia univoco per il grafico e i dati del modello.