Model

classe publique Model

Classe wrapper pour un modèle TFLite et un interpréteur TFLite.

Remarque: Un Model ne peut contenir qu'un seul modèle TFLite à la fois et doit toujours contenir une instance d'interpréteur TFLite pour l'exécuter.

Classes imbriquées

classe Model.Builder Cette classe est obsolète. Veuillez utiliser Model.createModel(Context, String, Options).  
enum Model.Device Type d'appareil en cours d'exécution utilisé pour exécuter la classification. 
classe Model.Options Options d'exécution du modèle

Méthodes publiques

void
close()
Modèle statique
createModel(contexte de contexte, String modelPath, Model.Options)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite avec les options fournies.
Modèle statique
createModel(contexte de contexte, String modelPath)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite.
MappedByteBuffer
getData()
Renvoie les données de modèle mappées en mémoire.
Tensor
getInputTensor(int inputIndex)
Récupère le Tensor associé à l'index d'entrée fourni.
Tensor
getOutputTensor(int outputIndex)
Récupère le Tensor associé à l'index de sortie fourni.
int[]
getOutputTensorShape(int outputIndex)
Renvoie la forme de sortie.
String
getPath()
Renvoie le chemin d'accès au fichier de modèle stocké dans "Éléments".
void
run(entrées Object[], Map<IntegerObject>)
Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.

Méthodes héritées

Méthodes publiques

public void close ()

public statique Model createModel (contexte de contexte, String modelPath, Model.Options)

Charge un modèle à partir des éléments et initialise l'interpréteur TFLite avec les options fournies.

Paramètres
context Contexte de l'application
modelPath Chemin d'accès au fichier de modèle.
options Options d'exécution du modèle.
Génère
IOException si une exception se produit à l'ouverture du fichier de modèle.
Voir également

public statique Model createModel (contexte de contexte, String modelPath)

Charge un modèle à partir des éléments et initialise l'interpréteur TFLite.

Les options par défaut sont: (1) CPU (processeur) ; (2) un thread.

Paramètres
context Contexte de l'application
modelPath Chemin d'accès au fichier de modèle.
Génère
IOException si une exception se produit à l'ouverture du fichier de modèle.

public MappedByteBuffer getData ()

Renvoie les données de modèle mappées en mémoire.

public Tensor getInputTensor (int inputIndex)

Récupère le Tensor associé à l'index d'entrée fourni.

Paramètres
inputIndex
Génère
IllegalStateException si l'interprète est fermé.

public Tensor getOutputTensor (int outputIndex)

Récupère le Tensor associé à l'index de sortie fourni.

Paramètres
outputIndex
Génère
IllegalStateException si l'interprète est fermé.

public int[] getOutputTensorShape (int outputIndex)

Renvoie la forme de sortie. Cette approche est utile si la forme de sortie n'est déterminée que lors de la création du graphique.

Paramètres
outputIndex
Génère
IllegalStateException si l'interprète est fermé.

public String getPath ()

Renvoie le chemin d'accès au fichier de modèle stocké dans "Éléments".

public vide run ((entrées Object[], Map<EntierObjets>)

Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.

Paramètres
cachées un tableau de données d'entrée. Les entrées doivent être dans le même ordre que les entrées du modèle. Chaque entrée peut être un tableau, un tableau multidimensionnel ou un ByteBuffer de types primitifs, y compris "int", "float", "long" et "byte". ByteBuffer est le moyen privilégié pour transmettre des données d'entrée volumineuses, tandis que les types de chaînes nécessitent l'utilisation du chemin d'entrée d'un tableau (multidimensionnel). Lorsque ByteBuffer est utilisé, son contenu ne doit pas changer jusqu'à la fin de l'inférence du modèle.
sorties une map mappant les index de sortie à des tableaux multidimensionnels de données de sortie ou à des ByteBuffer de types primitifs, y compris int, float, long et byte. Il lui suffit de conserver des entrées pour les sorties à utiliser.