Model

classe pública Model

A classe wrapper para um modelo e um intérprete do TFLite.

Observação: um Model pode conter apenas um modelo do TFLite por vez e sempre tem uma instância de intérprete do TFLite para executá-lo.

Classes aninhadas

classe Model.Builder Esta classe foi descontinuada. Use o método Model.createModel(Context, String, Options)  
enum Model.Device O tipo de dispositivo do ambiente de execução usado para executar a classificação. 
classe Model.Options Opções para executar o modelo. 

Métodos públicos

void
close()
Modelo estático
createModel(contexto de contexto, modelPath String, opções Model.Options)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite com as opções fornecidas.
Modelo estático
createModel(contexto de contexto, String modelPath)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite.
MappedByteBuffer
getData()
Retorna os dados do modelo mapeado na memória.
Tensor (link em inglês)
getInputTensor(int inputIndex)
Recebe o tensor associado ao índice de entrada fornecido.
Tensor (link em inglês)
getOutputTensor(int outputIndex)
Recebe o tensor associado ao índice de saída fornecido.
int[]
getOutputTensorShape(int outputIndex)
Retorna o formato de saída.
String
getPath()
Retorna o caminho do arquivo modelo armazenado em "Recursos".
void
run(entradas Object[], Map<IntegerObject> saídas)
Executa a inferência de modelo em várias entradas e retorna várias saídas.

Métodos herdados

Métodos públicos

public void close ()

public Static Model createModel (Context context, String modelPath, Model.Options options)

Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite com as opções fornecidas.

Parâmetros
contexto Contexto do app.
modelPath O caminho do arquivo do modelo.
do modelo. As opções para executar o modelo.
Gera
IOException se alguma exceção ocorrer ao abrir o arquivo de modelo.
Ver também

público estático Modelo createModel (contexto de contexto, String modelPath)

Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite.

As opções padrão são: (1) dispositivo de CPU; (2) uma linha de execução.

Parâmetros
contexto Contexto do app.
modelPath O caminho do arquivo do modelo.
Gera
IOException se alguma exceção ocorrer ao abrir o arquivo de modelo.

public MappedByteBuffer getData ()

Retorna os dados do modelo mapeado na memória.

público Tensor getInputTensor (int inputIndex)

Recebe o tensor associado ao índice de entrada fornecido.

Parâmetros
inputIndex
Gera
IllegalStateException se o intérprete estiver fechado.

público Tensor getOutputTensor (int outputIndex)

Recebe o tensor associado ao índice de saída fornecido.

Parâmetros
outputIndex
Gera
IllegalStateException se o intérprete estiver fechado.

public int[] getOutputTensorShape (int outputIndex)

Retorna o formato de saída. Útil quando a forma de saída é determinada apenas quando o gráfico é criado.

Parâmetros
outputIndex
Gera
IllegalStateException se o intérprete estiver fechado.

public String getPath ()

Retorna o caminho do arquivo modelo armazenado em "Recursos".

public void run (Object[] entradas, Map<IntegerObject> saídas)

Executa a inferência de modelo em várias entradas e retorna várias saídas.

Parâmetros
escondidas uma matriz de dados de entrada. As entradas precisam estar na mesma ordem que as entradas do modelo. Cada entrada pode ser uma matriz, uma matriz multidimensional ou uma ByteBuffer de tipos primitivos, incluindo int, float, long e byte. ByteBuffer é a maneira preferencial para transmitir grandes dados de entrada, enquanto os tipos de string exigem o uso do caminho de entrada da matriz (multidimensional). Quando ByteBuffer é usado, o conteúdo precisa permanecer inalterado até que a inferência do modelo seja concluída.
saídas Um mapa que mapeia índices de saída para matrizes multidimensionais de dados de saída ou ByteBuffers de tipos primitivos, incluindo int, float, long e byte. Ele só precisa manter entradas para que as saídas sejam usadas.