GpuDelegateFactory.Options

classe statique publique GpuDelegateFactory.Options
Sous-classes directes connues

Options de délégation.

Classes imbriquées

enum GpuDelegateFactory.Options.GpuBackend Backend de GPU à sélectionner

Constantes

int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER Le délégué ne sera utilisé qu'une seule fois. Par conséquent, le temps d'amorçage/d'initialisation doit être pris en compte.
int INFERENCE_PREFERENCE_SUSTAINED_SPEED Il est préférable de maximiser le débit.

Constructeurs publics

Méthodes publiques

boolean
GpuDelegateFactory.Options.GpuBackend
int
String
String
boolean
GpuDelegateFactory.Options
setForceBackend(GpuDelegateFactory.Options.GpuBackend forceBackend)
Définit le backend GPU.
GpuDelegateFactory.Options
setInferencePreference(int preference)
Définit la préférence d'inférence pour les compromis entre précision/compilation/exécution.
GpuDelegateFactory.Options
setPrecisionLossAllowed(boolean precisionLossAllowed)
Détermine si la perte de précision est autorisée.
GpuDelegateFactory.Options
setQuantizedModelsAllowed(booléen quantizedModelsAllowed)
Active l'exécution de modèles quantifiés avec le délégué.
GpuDelegateFactory.Options
setSerializationParams(String serializationDir, String modelToken)
Active la sérialisation sur le délégué.

Méthodes héritées

Constantes

public statique final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER

Le délégué ne sera utilisé qu'une seule fois. Par conséquent, le temps d'amorçage/d'initialisation doit être pris en compte.

Valeur de la constante: 0

public statique final int INFERENCE_PREFERENCE_SUSTAINED_SPEED

Il est préférable de maximiser le débit. Le même délégué sera utilisé plusieurs fois sur plusieurs entrées.

Valeur de la constante: 1

Constructeurs publics

public Options ()

Méthodes publiques

public boolean areQuantizedModelsAllowed ()

public GpuDelegateFactory.Options.GpuBackend getForceBackend ()

public int getInferencePreference ()

public String getModelToken ()

public String getSerializationDir ()

public boolean isPrecisionLossAllowed ()

public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)

Définit le backend GPU.

Paramètres
forceBackend

public GpuDelegateFactory.Options setInferencePreference (int preference)

Définit la préférence d'inférence pour les compromis entre précision/compilation/exécution.

Paramètres
préférence "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (par défaut) ou "INFERENCE_PREFERENCE_SUSTAINED_SPEED".

public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)

Détermine si la perte de précision est autorisée.

Paramètres
precisionLossAllowed Lorsque la valeur est "true" (par défaut), le GPU peut quantifier des Tensors, des valeurs descendantes et traiter en FP16. Avec la valeur "false", les calculs sont effectués en virgule flottante 32 bits.

public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)

Active l'exécution de modèles quantifiés avec le délégué.

AVERTISSEMENT: Cette API est expérimentale et susceptible d'être modifiée.

Paramètres
quantizedModelsAllowed Si la valeur est true (par défaut), le GPU peut exécuter des modèles quantifiés.

public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)

Active la sérialisation sur le délégué. Notez que les valeurs serializationDir et modelToken non nulles sont requises pour la sérialisation.

AVERTISSEMENT: Cette API est expérimentale et susceptible d'être modifiée.

Paramètres
serializationDir Répertoire à utiliser pour stocker les données. L'appelant est tenu de s'assurer que le modèle n'est pas stocké dans un répertoire public. Nous vous recommandons d'utiliser Context.getCodeCacheDir() pour fournir un emplacement privé à l'application sur Android.
modelToken Jeton permettant d'identifier le modèle. L'appelant est tenu de s'assurer que le jeton est unique au graphique et aux données du modèle.