La classe wrapper per un modello TFLite e un interprete TFLite.
Nota: un elemento Model
può contenere solo un modello TFLite alla volta e include sempre un'istanza dell'interprete TFLite per eseguirlo.
Corsi nidificati
classe | Model.Builder |
Questo corso è deprecato. Usa Model.createModel(Context, String, Options) .
|
|
enum | Model.Device | Il tipo di dispositivo di runtime utilizzato per l'esecuzione della classificazione. | |
classe | Model.Options | Opzioni per l'esecuzione del modello. |
Metodi pubblici
void |
close()
|
statico Modello |
createModel(Context context, String modelPath, Model.Options)
Carica un modello dagli asset e inizializza l'interprete TFLite con le opzioni fornite.
|
statico Modello |
createModel(Contesto del contesto, Stringa modelPath)
Carica un modello dagli asset e inizializza l'interprete TFLite.
|
MappedByteBuffer |
getData()
Restituisce i dati del modello mappati alla memoria.
|
Tensor |
getInputTensor(int inputIndex)
Restituisce il Tensor associato all'indice di input fornito.
|
Tensor |
getOutputTensor(int outputIndex)
Restituisce il valore Tensor associato all'indice di output fornito.
|
int[] |
getOutputTensorShape(int outputIndex)
Restituisce la forma di output.
|
String |
getPath()
Restituisce il percorso del file del modello archiviato in Asset.
|
void |
Metodi ereditati
Metodi pubblici
pubblica void chiudi ()
pubblico static Model createModel (Contesto del contesto, Stringa modelPath, opzioni Model.Options)
Carica un modello dagli asset e inizializza l'interprete TFLite con le opzioni fornite.
Parametri
context | Il contesto dell'app. |
---|---|
modelPath | Il percorso del file del modello. |
opzioni del modello. | Le opzioni per l'esecuzione del modello. |
Lanci
IOException | in caso di eccezioni quando apri il file del modello. |
---|
Argomenti correlati
pubblico statico Modello createModel (Contesto del contesto, Stringa modelPath)
Carica un modello dagli asset e inizializza l'interprete TFLite.
Le opzioni predefinite sono: (1) dispositivo CPU; (2) un thread.
Parametri
context | Il contesto dell'app. |
---|---|
modelPath | Il percorso del file del modello. |
Lanci
IOException | in caso di eccezioni quando apri il file del modello. |
---|
pubblico Tensor getInputTensor (int inputIndex)
Restituisce il Tensor associato all'indice di input fornito.
Parametri
inputIndex |
---|
Lanci
IllegalStateException | se l'interprete è chiuso. |
---|
pubblico Tensor getOutputTensor (int outputIndex)
Restituisce il valore Tensor associato all'indice di output fornito.
Parametri
outputIndex |
---|
Lanci
IllegalStateException | se l'interprete è chiuso. |
---|
Public int[] getOutputTensorShape (int outputIndex)
Restituisce la forma di output. Utile se la forma di output viene determinata solo quando viene creato il grafico.
Parametri
outputIndex |
---|
Lanci
IllegalStateException | se l'interprete è chiuso. |
---|
Public void run (Input dell'oggetto[], output Map<Numero intero, output dell'oggetto>)
Esegue l'inferenza del modello su più input e restituisce più output.
Parametri
nascosti | un array di dati di input. Gli input devono essere nello stesso ordine degli input del modello. Ogni input può essere un array o una matrice multidimensionale oppure un ByteBuffer di tipi primitivi, tra cui int, float, long e byte. ByteBuffer è il modo preferito per trasferire dati di input di grandi dimensioni, mentre i tipi di stringa richiedono l'utilizzo del percorso di input dell'array (multidimensionale). Quando viene utilizzato ByteBuffer , i relativi contenuti devono rimanere invariati fino al completamento dell'inferenza del modello. |
---|---|
output | una mappa che mappa gli indici di output a array multidimensionali di dati di output o a ByteBuffer di tipi primitivi tra cui int, float, long e byte. Deve solo conservare le voci per poter utilizzare gli output.
|