Model

classe pubblica Modello

La classe wrapper per un modello TFLite e un interprete TFLite.

Nota: un elemento Model può contenere solo un modello TFLite alla volta e include sempre un'istanza dell'interprete TFLite per eseguirlo.

Corsi nidificati

classe Model.Builder Questo corso è deprecato. Usa Model.createModel(Context, String, Options).  
enum Model.Device Il tipo di dispositivo di runtime utilizzato per l'esecuzione della classificazione. 
classe Model.Options Opzioni per l'esecuzione del modello. 

Metodi pubblici

void
close()
statico Modello
createModel(Context context, String modelPath, Model.Options)
Carica un modello dagli asset e inizializza l'interprete TFLite con le opzioni fornite.
statico Modello
createModel(Contesto del contesto, Stringa modelPath)
Carica un modello dagli asset e inizializza l'interprete TFLite.
MappedByteBuffer
getData()
Restituisce i dati del modello mappati alla memoria.
Tensor
getInputTensor(int inputIndex)
Restituisce il Tensor associato all'indice di input fornito.
Tensor
getOutputTensor(int outputIndex)
Restituisce il valore Tensor associato all'indice di output fornito.
int[]
getOutputTensorShape(int outputIndex)
Restituisce la forma di output.
String
getPath()
Restituisce il percorso del file del modello archiviato in Asset.
void
run(Input di Object[], output Map<IntegerObject>)
Esegue l'inferenza del modello su più input e restituisce più output.

Metodi ereditati

Metodi pubblici

pubblica void chiudi ()

pubblico static Model createModel (Contesto del contesto, Stringa modelPath, opzioni Model.Options)

Carica un modello dagli asset e inizializza l'interprete TFLite con le opzioni fornite.

Parametri
context Il contesto dell'app.
modelPath Il percorso del file del modello.
opzioni del modello. Le opzioni per l'esecuzione del modello.
Lanci
IOException in caso di eccezioni quando apri il file del modello.
Argomenti correlati

pubblico statico Modello createModel (Contesto del contesto, Stringa modelPath)

Carica un modello dagli asset e inizializza l'interprete TFLite.

Le opzioni predefinite sono: (1) dispositivo CPU; (2) un thread.

Parametri
context Il contesto dell'app.
modelPath Il percorso del file del modello.
Lanci
IOException in caso di eccezioni quando apri il file del modello.

pubblica MappedByteBuffer getData ()

Restituisce i dati del modello mappati alla memoria.

pubblico Tensor getInputTensor (int inputIndex)

Restituisce il Tensor associato all'indice di input fornito.

Parametri
inputIndex
Lanci
IllegalStateException se l'interprete è chiuso.

pubblico Tensor getOutputTensor (int outputIndex)

Restituisce il valore Tensor associato all'indice di output fornito.

Parametri
outputIndex
Lanci
IllegalStateException se l'interprete è chiuso.

Public int[] getOutputTensorShape (int outputIndex)

Restituisce la forma di output. Utile se la forma di output viene determinata solo quando viene creato il grafico.

Parametri
outputIndex
Lanci
IllegalStateException se l'interprete è chiuso.

Public Stringa getPath ()

Restituisce il percorso del file del modello archiviato in Asset.

Public void run (Input dell'oggetto[], output Map<Numero interooutput dell'oggetto>)

Esegue l'inferenza del modello su più input e restituisce più output.

Parametri
nascosti un array di dati di input. Gli input devono essere nello stesso ordine degli input del modello. Ogni input può essere un array o una matrice multidimensionale oppure un ByteBuffer di tipi primitivi, tra cui int, float, long e byte. ByteBuffer è il modo preferito per trasferire dati di input di grandi dimensioni, mentre i tipi di stringa richiedono l'utilizzo del percorso di input dell'array (multidimensionale). Quando viene utilizzato ByteBuffer, i relativi contenuti devono rimanere invariati fino al completamento dell'inferenza del modello.
output una mappa che mappa gli indici di output a array multidimensionali di dati di output o a ByteBuffer di tipi primitivi tra cui int, float, long e byte. Deve solo conservare le voci per poter utilizzare gli output.