Classe wrapper pour un modèle TFLite et un interpréteur TFLite.
Remarque: Un Model
ne peut contenir qu'un seul modèle TFLite à la fois et doit toujours contenir une instance d'interpréteur TFLite pour l'exécuter.
Classes imbriquées
classe | Model.Builder |
Cette classe est obsolète. Veuillez utiliser Model.createModel(Context, String, Options) .
|
|
enum | Model.Device | Type d'appareil en cours d'exécution utilisé pour exécuter la classification. | |
classe | Model.Options | Options d'exécution du modèle |
Méthodes publiques
void |
close()
|
Modèle statique |
createModel(contexte de contexte, String modelPath, Model.Options)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite avec les options fournies.
|
Modèle statique |
createModel(contexte de contexte, String modelPath)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite.
|
MappedByteBuffer |
getData()
Renvoie les données de modèle mappées en mémoire.
|
Tensor |
getInputTensor(int inputIndex)
Récupère le Tensor associé à l'index d'entrée fourni.
|
Tensor |
getOutputTensor(int outputIndex)
Récupère le Tensor associé à l'index de sortie fourni.
|
int[] |
getOutputTensorShape(int outputIndex)
Renvoie la forme de sortie.
|
String |
getPath()
Renvoie le chemin d'accès au fichier de modèle stocké dans "Éléments".
|
void |
Méthodes héritées
Méthodes publiques
public void close ()
public statique Model createModel (contexte de contexte, String modelPath, Model.Options)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite avec les options fournies.
Paramètres
context | Contexte de l'application |
---|---|
modelPath | Chemin d'accès au fichier de modèle. |
options | Options d'exécution du modèle. |
Génère
IOException | si une exception se produit à l'ouverture du fichier de modèle. |
---|
Voir également
public statique Model createModel (contexte de contexte, String modelPath)
Charge un modèle à partir des éléments et initialise l'interpréteur TFLite.
Les options par défaut sont: (1) CPU (processeur) ; (2) un thread.
Paramètres
context | Contexte de l'application |
---|---|
modelPath | Chemin d'accès au fichier de modèle. |
Génère
IOException | si une exception se produit à l'ouverture du fichier de modèle. |
---|
public Tensor getInputTensor (int inputIndex)
Récupère le Tensor associé à l'index d'entrée fourni.
Paramètres
inputIndex |
---|
Génère
IllegalStateException | si l'interprète est fermé. |
---|
public Tensor getOutputTensor (int outputIndex)
Récupère le Tensor associé à l'index de sortie fourni.
Paramètres
outputIndex |
---|
Génère
IllegalStateException | si l'interprète est fermé. |
---|
public int[] getOutputTensorShape (int outputIndex)
Renvoie la forme de sortie. Cette approche est utile si la forme de sortie n'est déterminée que lors de la création du graphique.
Paramètres
outputIndex |
---|
Génère
IllegalStateException | si l'interprète est fermé. |
---|
public vide run ((entrées Object[], Map<Entier, Objets>)
Exécute l'inférence de modèle sur plusieurs entrées et renvoie plusieurs sorties.
Paramètres
cachées | un tableau de données d'entrée. Les entrées doivent être dans le même ordre que les entrées du modèle. Chaque entrée peut être un tableau, un tableau multidimensionnel ou un ByteBuffer de types primitifs, y compris "int", "float", "long" et "byte". ByteBuffer est le moyen privilégié pour transmettre des données d'entrée volumineuses, tandis que les types de chaînes nécessitent l'utilisation du chemin d'entrée d'un tableau (multidimensionnel). Lorsque ByteBuffer est utilisé, son contenu ne doit pas changer jusqu'à la fin de l'inférence du modèle. |
---|---|
sorties | une map mappant les index de sortie à des tableaux multidimensionnels de données de sortie ou à des ByteBuffer de types primitifs, y compris int, float, long et byte. Il lui suffit de conserver des entrées pour les sorties à utiliser.
|