A classe wrapper para um modelo e um intérprete do TFLite.
Observação: um Model
pode conter apenas um modelo do TFLite por vez e sempre tem uma instância de intérprete do TFLite para executá-lo.
Classes aninhadas
classe | Model.Builder |
Esta classe foi descontinuada. Use o método Model.createModel(Context, String, Options)
|
|
enum | Model.Device | O tipo de dispositivo do ambiente de execução usado para executar a classificação. | |
classe | Model.Options | Opções para executar o modelo. |
Métodos públicos
void |
close()
|
Modelo estático |
createModel(contexto de contexto, modelPath String, opções Model.Options)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite com as opções fornecidas.
|
Modelo estático |
createModel(contexto de contexto, String modelPath)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite.
|
MappedByteBuffer |
getData()
Retorna os dados do modelo mapeado na memória.
|
Tensor (link em inglês) |
getInputTensor(int inputIndex)
Recebe o tensor associado ao índice de entrada fornecido.
|
Tensor (link em inglês) |
getOutputTensor(int outputIndex)
Recebe o tensor associado ao índice de saída fornecido.
|
int[] |
getOutputTensorShape(int outputIndex)
Retorna o formato de saída.
|
String |
getPath()
Retorna o caminho do arquivo modelo armazenado em "Recursos".
|
void |
Métodos herdados
Métodos públicos
public void close ()
public Static Model createModel (Context context, String modelPath, Model.Options options)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite com as opções fornecidas.
Parâmetros
contexto | Contexto do app. |
---|---|
modelPath | O caminho do arquivo do modelo. |
do modelo. | As opções para executar o modelo. |
Gera
IOException | se alguma exceção ocorrer ao abrir o arquivo de modelo. |
---|
Ver também
público estático Modelo createModel (contexto de contexto, String modelPath)
Carrega um modelo com base nos recursos e inicializa o intérprete do TFLite.
As opções padrão são: (1) dispositivo de CPU; (2) uma linha de execução.
Parâmetros
contexto | Contexto do app. |
---|---|
modelPath | O caminho do arquivo do modelo. |
Gera
IOException | se alguma exceção ocorrer ao abrir o arquivo de modelo. |
---|
público Tensor getInputTensor (int inputIndex)
Recebe o tensor associado ao índice de entrada fornecido.
Parâmetros
inputIndex |
---|
Gera
IllegalStateException | se o intérprete estiver fechado. |
---|
público Tensor getOutputTensor (int outputIndex)
Recebe o tensor associado ao índice de saída fornecido.
Parâmetros
outputIndex |
---|
Gera
IllegalStateException | se o intérprete estiver fechado. |
---|
public int[] getOutputTensorShape (int outputIndex)
Retorna o formato de saída. Útil quando a forma de saída é determinada apenas quando o gráfico é criado.
Parâmetros
outputIndex |
---|
Gera
IllegalStateException | se o intérprete estiver fechado. |
---|
public void run (Object[] entradas, Map<Integer, Object> saídas)
Executa a inferência de modelo em várias entradas e retorna várias saídas.
Parâmetros
escondidas | uma matriz de dados de entrada. As entradas precisam estar na mesma ordem que as entradas do modelo. Cada entrada pode ser uma matriz, uma matriz multidimensional ou uma ByteBuffer de tipos primitivos, incluindo int, float, long e byte. ByteBuffer é a maneira preferencial para transmitir grandes dados de entrada, enquanto os tipos de string exigem o uso do caminho de entrada da matriz (multidimensional). Quando ByteBuffer é
usado, o conteúdo precisa permanecer inalterado até que a inferência do modelo seja concluída. |
---|---|
saídas | Um mapa que mapeia índices de saída para matrizes multidimensionais de dados de saída ou ByteBuffer s de tipos primitivos, incluindo int, float, long e byte. Ele só precisa manter entradas para que as saídas sejam usadas.
|