Model

Public-Klasse Model

Die Wrapper-Klasse für ein TFLite-Modell und einen TFLite-Interpreter.

Hinweis: Ein Model kann jeweils nur 1 TFLite-Modell enthalten und immer eine TFLite-Interpreterinstanz, um es auszuführen.

Verschachtelte Klassen

Klasse Model.Builder Diese Klasse wurde eingestellt. Bitte verwende Model.createModel(Context, String, Options).  
enum Model.Device Der Laufzeitgerätetyp, der für die Klassifizierung verwendet wird. 
Klasse Model.Options Optionen zum Ausführen des Modells. 

Public Methods

void
close()
Statisches Modell
createModel(Kontextkontext, String modelPath, Model.Options-Optionen)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter mit den angegebenen Optionen.
Statisches Modell
createModel(Kontextkontext, String modelPath)
Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter.
MappedByteBuffer
getData()
Gibt die dem Arbeitsspeicher zugeordneten Modelldaten zurück.
Tensor
getInputTensor(int inputIndex)
Ruft den Tensor ab, der dem bereitgestellten Eingabeindex zugeordnet ist.
Tensor
getOutputTensor(int outputIndex)
Ruft den Tensor ab, der dem bereitgestellten Ausgabeindex zugeordnet ist.
int[]
getOutputTensorShape(int outputIndex)
Gibt die Ausgabeform zurück.
String
getPath()
Gibt den Pfad der in Assets gespeicherten Modelldatei zurück.
void
run(Object[]-Eingaben, Map<IntegerObject>-Ausgaben)
Führt Modellinferenz für mehrere Eingaben aus und gibt mehrere Ausgaben zurück.

Übernommene Methoden

Public Methods

public void close ()

public static Modell createModel (Kontextkontext, String modelPath, Model.Options-Optionen)

Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter mit den angegebenen Optionen.

Parameter
context Der App-Kontext.
modelPath Der Pfad der Modelldatei.
Optionen Die Optionen zum Ausführen des Modells.
Löst aus
IOException falls beim Öffnen der Modelldatei eine Ausnahme auftritt.
Weitere Informationen

public static Modell createModel (Kontextkontext, String modelPath)

Lädt ein Modell aus Assets und initialisiert den TFLite-Interpreter.

Die Standardoptionen sind: (1) CPU-Gerät; (2) Ein Thread.

Parameter
context Der App-Kontext.
modelPath Der Pfad der Modelldatei.
Löst aus
IOException falls beim Öffnen der Modelldatei eine Ausnahme auftritt.

public MappedByteBuffer getData ()

Gibt die dem Arbeitsspeicher zugeordneten Modelldaten zurück.

public Tensor getInputTensor (int inputIndex)

Ruft den Tensor ab, der dem bereitgestellten Eingabeindex zugeordnet ist.

Parameter
inputIndex
Löst aus
IllegalStateException wenn der Dolmetscher geschlossen ist.

public Tensor getOutputTensor (int outputIndex)

Ruft den Tensor ab, der dem bereitgestellten Ausgabeindex zugeordnet ist.

Parameter
outputIndex
Löst aus
IllegalStateException wenn der Dolmetscher geschlossen ist.

public int[] getOutputTensorShape (int editionIndex)

Gibt die Ausgabeform zurück. Dies ist hilfreich, wenn die Ausgabeform nur beim Erstellen des Diagramms bestimmt wird.

Parameter
outputIndex
Löst aus
IllegalStateException wenn der Dolmetscher geschlossen ist.

public String getPath ()

Gibt den Pfad der in Assets gespeicherten Modelldatei zurück.

public void run (Objekt[]-Eingaben, Map<GanzzahlObjekt->-Ausgaben)

Führt Modellinferenz für mehrere Eingaben aus und gibt mehrere Ausgaben zurück.

Parameter
Eingaben ein Array von Eingabedaten. Die Eingaben sollten in derselben Reihenfolge wie die Eingaben des Modells sein. Jede Eingabe kann ein Array oder ein mehrdimensionales Array oder eine ByteBuffer mit primitiven Typen wie „int“, „Gleitkommazahl“, „long“ und „byte“ sein. ByteBuffer ist die bevorzugte Methode zum Übergeben großer Eingabedaten, während Stringtypen die Verwendung des (mehrdimensionalen) Array-Eingabepfads erfordern. Wenn ByteBuffer verwendet wird, sollte sein Inhalt unverändert bleiben, bis die Modellinferenz abgeschlossen ist.
Ausgaben Eine Karte, die Ausgabeindexe mehrdimensionalen Arrays von Ausgabedaten oder ByteBuffers primitiver Typen wie „int“, „Gleitkommazahl“, „long“ und „byte“ zuordnet. Es müssen nur Einträge gespeichert werden, damit die Ausgaben verwendet werden können.