Die Wrapper-Klasse für ein TFLite-Modell und einen TFLite-Interpreter.
Hinweis: Ein Model
kann jeweils nur 1 TFLite-Modell enthalten und immer eine TFLite-Interpreterinstanz, um es auszuführen.
Verschachtelte Klassen
Klasse | Model.Builder |
Diese Klasse wurde eingestellt. Bitte verwende Model.createModel(Context, String, Options) .
|
|
enum | Model.Device | Der Laufzeitgerätetyp, der für die Klassifizierung verwendet wird. | |
Klasse | Model.Options | Optionen zum Ausführen des Modells. |
Public Methods
void |
close()
|
Statisches Modell |
createModel(Kontextkontext, String modelPath, Model.Options-Optionen)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter mit den angegebenen Optionen.
|
Statisches Modell |
createModel(Kontextkontext, String modelPath)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter.
|
MappedByteBuffer |
getData()
Gibt die dem Arbeitsspeicher zugeordneten Modelldaten zurück.
|
Tensor |
getInputTensor(int inputIndex)
Ruft den Tensor ab, der dem bereitgestellten Eingabeindex zugeordnet ist.
|
Tensor |
getOutputTensor(int outputIndex)
Ruft den Tensor ab, der dem bereitgestellten Ausgabeindex zugeordnet ist.
|
int[] |
getOutputTensorShape(int outputIndex)
Gibt die Ausgabeform zurück.
|
String |
getPath()
Gibt den Pfad der in Assets gespeicherten Modelldatei zurück.
|
void |
Übernommene Methoden
Public Methods
public void close ()
public static Modell createModel (Kontextkontext, String modelPath, Model.Options-Optionen)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter mit den angegebenen Optionen.
Parameter
context | Der App-Kontext. |
---|---|
modelPath | Der Pfad der Modelldatei. |
Optionen | Die Optionen zum Ausführen des Modells. |
Löst aus
IOException | falls beim Öffnen der Modelldatei eine Ausnahme auftritt. |
---|
Weitere Informationen
public static Modell createModel (Kontextkontext, String modelPath)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter.
Die Standardoptionen sind: (1) CPU-Gerät; (2) Ein Thread.
Parameter
context | Der App-Kontext. |
---|---|
modelPath | Der Pfad der Modelldatei. |
Löst aus
IOException | falls beim Öffnen der Modelldatei eine Ausnahme auftritt. |
---|
public Tensor getInputTensor (int inputIndex)
Ruft den Tensor ab, der dem bereitgestellten Eingabeindex zugeordnet ist.
Parameter
inputIndex |
---|
Löst aus
IllegalStateException | wenn der Dolmetscher geschlossen ist. |
---|
public Tensor getOutputTensor (int outputIndex)
Ruft den Tensor ab, der dem bereitgestellten Ausgabeindex zugeordnet ist.
Parameter
outputIndex |
---|
Löst aus
IllegalStateException | wenn der Dolmetscher geschlossen ist. |
---|
public int[] getOutputTensorShape (int editionIndex)
Gibt die Ausgabeform zurück. Dies ist hilfreich, wenn die Ausgabeform nur beim Erstellen des Diagramms bestimmt wird.
Parameter
outputIndex |
---|
Löst aus
IllegalStateException | wenn der Dolmetscher geschlossen ist. |
---|
public void run (Objekt[]-Eingaben, Map<Ganzzahl, Objekt->-Ausgaben)
Führt Modellinferenz für mehrere Eingaben aus und gibt mehrere Ausgaben zurück.
Parameter
Eingaben | ein Array von Eingabedaten. Die Eingaben sollten in derselben Reihenfolge wie die Eingaben des Modells sein. Jede Eingabe kann ein Array oder ein mehrdimensionales Array oder eine ByteBuffer mit primitiven Typen wie „int“, „Gleitkommazahl“, „long“ und „byte“ sein. ByteBuffer ist die bevorzugte Methode zum Übergeben großer Eingabedaten, während Stringtypen die Verwendung des (mehrdimensionalen) Array-Eingabepfads erfordern. Wenn ByteBuffer verwendet wird, sollte sein Inhalt unverändert bleiben, bis die Modellinferenz abgeschlossen ist. |
---|---|
Ausgaben | Eine Karte, die Ausgabeindexe mehrdimensionalen Arrays von Ausgabedaten oder ByteBuffer s primitiver Typen wie „int“, „Gleitkommazahl“, „long“ und „byte“ zuordnet. Es müssen nur Einträge gespeichert werden, damit die Ausgaben verwendet werden können.
|