Sous-classes directes connues |
Options de délégation.
Classes imbriquées
enum | GpuDelegateFactory.Options.GpuBackend | Backend de GPU à sélectionner |
Constantes
int | INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER | Le délégué ne sera utilisé qu'une seule fois. Par conséquent, le temps d'amorçage/d'initialisation doit être pris en compte. |
int | INFERENCE_PREFERENCE_SUSTAINED_SPEED | Il est préférable de maximiser le débit. |
Constructeurs publics
Options()
|
Méthodes publiques
boolean | |
GpuDelegateFactory.Options.GpuBackend | |
int | |
String | |
String | |
boolean | |
GpuDelegateFactory.Options | |
GpuDelegateFactory.Options |
setInferencePreference(int preference)
Définit la préférence d'inférence pour les compromis entre précision/compilation/exécution.
|
GpuDelegateFactory.Options |
setPrecisionLossAllowed(boolean precisionLossAllowed)
Détermine si la perte de précision est autorisée.
|
GpuDelegateFactory.Options |
setQuantizedModelsAllowed(booléen quantizedModelsAllowed)
Active l'exécution de modèles quantifiés avec le délégué.
|
GpuDelegateFactory.Options |
setSerializationParams(String serializationDir, String modelToken)
Active la sérialisation sur le délégué.
|
Méthodes héritées
Constantes
public statique final int INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER
Le délégué ne sera utilisé qu'une seule fois. Par conséquent, le temps d'amorçage/d'initialisation doit être pris en compte.
public statique final int INFERENCE_PREFERENCE_SUSTAINED_SPEED
Il est préférable de maximiser le débit. Le même délégué sera utilisé plusieurs fois sur plusieurs entrées.
Constructeurs publics
public Options ()
Méthodes publiques
public boolean areQuantizedModelsAllowed ()
public int getInferencePreference ()
public boolean isPrecisionLossAllowed ()
public GpuDelegateFactory.Options setForceBackend (GpuDelegateFactory.Options.GpuBackend forceBackend)
Définit le backend GPU.
Paramètres
forceBackend |
---|
public GpuDelegateFactory.Options setInferencePreference (int preference)
Définit la préférence d'inférence pour les compromis entre précision/compilation/exécution.
Paramètres
préférence | "INFERENCE_PREFERENCE_FAST_SINGLE_ANSWER" (par défaut) ou "INFERENCE_PREFERENCE_SUSTAINED_SPEED". |
---|
public GpuDelegateFactory.Options setPrecisionLossAllowed (boolean precisionLossAllowed)
Détermine si la perte de précision est autorisée.
Paramètres
precisionLossAllowed | Lorsque la valeur est "true" (par défaut), le GPU peut quantifier des Tensors, des valeurs descendantes et traiter en FP16. Avec la valeur "false", les calculs sont effectués en virgule flottante 32 bits. |
---|
public GpuDelegateFactory.Options setQuantizedModelsAllowed (boolean quantizedModelsAllowed)
Active l'exécution de modèles quantifiés avec le délégué.
AVERTISSEMENT: Cette API est expérimentale et susceptible d'être modifiée.
Paramètres
quantizedModelsAllowed | Si la valeur est true (par défaut), le GPU peut exécuter des modèles quantifiés.
|
---|
public GpuDelegateFactory.Options setSerializationParams (String serializationDir, String modelToken)
Active la sérialisation sur le délégué. Notez que les valeurs serializationDir
et modelToken
non nulles sont requises pour la sérialisation.
AVERTISSEMENT: Cette API est expérimentale et susceptible d'être modifiée.
Paramètres
serializationDir | Répertoire à utiliser pour stocker les données. L'appelant est tenu de s'assurer que le modèle n'est pas stocké dans un répertoire public. Nous vous recommandons d'utiliser Context.getCodeCacheDir() pour fournir un emplacement privé à l'application sur Android. |
---|---|
modelToken | Jeton permettant d'identifier le modèle. L'appelant est tenu de s'assurer que le jeton est unique au graphique et aux données du modèle. |