Klasa otoki dla modelu TFLite i tłumacza TFLite.
Uwaga: obiekt Model
może mieć maksymalnie 1 model TFLite naraz i zawsze posiada instancję interpretera TFLite, aby go uruchomić.
Zagnieżdżone klasy
klasa | Model.Builder |
Ta klasa została wycofana. Użyj adresu Model.createModel(Context, String, Options) .
|
|
enum | typ wyliczeniowy | Model.Device | Typ urządzenia środowiska wykonawczego używany do klasyfikacji. | |
klasa | Model.Options | Opcje uruchamiania modelu. |
Metody publiczne
void |
close()
|
statyczny Model |
createModel(kontekst, ścieżka modelu String, opcje Model.Options)
Wczytuje model z zasobów i zainicjuje interpreter TFLite z podanymi opcjami.
|
statyczny Model |
createModel(kontekst, ciąg znaków modelPath)
Wczytuje model z zasobów i zainicjuje interpreter TFLite.
|
MappedByteBuffer |
getData()
Zwraca dane modelu zmapowane w pamięci.
|
Tensor |
getInputTensor(int inputIndex)
Pobiera Tensor powiązany z podanym indeksem danych wejściowych.
|
Tensor |
getOutputTensor(intoutputIndex)
Pobiera Tensor powiązany z podanym indeksem wyjściowym.
|
int[] |
getOutputTensorShape(intoutputIndex)
Zwraca kształt wyjściowy.
|
String |
getPath()
Zwraca ścieżkę pliku modelu zapisanego w zasobach.
|
void |
run(dane wejściowe Object[], mapa<liczba całkowita, dane wyjściowe obiektu>)
Uruchamia wnioskowanie na podstawie modelu dla wielu danych wejściowych i zwraca wiele danych wyjściowych.
|
Metody dziedziczone
Metody publiczne
public void close ()
public static Model createModel (Kontekst kontekst, String modelPath, Model.Options opcje)
Wczytuje model z zasobów i zainicjuje interpreter TFLite z podanymi opcjami.
Parametry
sytuacja | Kontekst aplikacji. |
---|---|
modelPath | Ścieżka pliku modelu. |
Opcje | Opcje uruchamiania modelu. |
Rzuty
IOException | jeśli wystąpi wyjątek podczas otwierania pliku modelu. |
---|
Zobacz również
public static Model createModel (Kontekst; Ciąg ModelPath)
Wczytuje model z zasobów i zainicjuje interpreter TFLite.
Opcje domyślne to: (1) procesor; (2) jeden wątek.
Parametry
sytuacja | Kontekst aplikacji. |
---|---|
modelPath | Ścieżka pliku modelu. |
Rzuty
IOException | jeśli wystąpi wyjątek podczas otwierania pliku modelu. |
---|
public Tensor getInputTensor (int inputIndex)
Pobiera Tensor powiązany z podanym indeksem danych wejściowych.
Parametry
inputIndex |
---|
Rzuty
IllegalStateException | jeśli tłumacz jest zamknięty. |
---|
public Tensor getOutputTensor (intoutputIndex)
Pobiera Tensor powiązany z podanym indeksem wyjściowym.
Parametry
outputIndex |
---|
Rzuty
IllegalStateException | jeśli tłumacz jest zamknięty. |
---|
public int[] getOutputTensorShape (intoutputIndex)
Zwraca kształt wyjściowy. Ta opcja jest przydatna, jeśli kształt wyjściowy jest określany tylko podczas tworzenia wykresu.
Parametry
outputIndex |
---|
Rzuty
IllegalStateException | jeśli tłumacz jest zamknięty. |
---|
public void run (Object[] wpisy wejściowe, mapa<liczba całkowita, obiekt>)
Uruchamia wnioskowanie na podstawie modelu dla wielu danych wejściowych i zwraca wiele danych wyjściowych.
Parametry
dane wejściowe | tablicę danych wejściowych. Dane wejściowe powinny mieć taką samą kolejność jak dane wejściowe modelu. Każde dane wejściowe mogą być tablicą lub tablicą wielowymiarową albo ByteBuffer typów podstawowych, takich jak int, float, long i byte. ByteBuffer jest preferowanym sposobem przekazywania dużych danych wejściowych, natomiast typy ciągów znaków wymagają użycia (wielowymiarowej) ścieżki wejściowej tablicy. Jeśli używana jest właściwość ByteBuffer , jej treść powinna pozostać niezmieniona, dopóki nie zostanie wnioskowane model. |
---|---|
dane wyjściowe | mapuje indeksy wyjściowe odwzorowujące wielowymiarowe tablice danych wyjściowych lub obiekty ByteBuffer typów podstawowych, w tym typu int, float, Long i byte. Wystarczy, że będzie przechowywać wpisy, aby były używane dane wyjściowe.
|