Klasa otoki dla modelu TFLite i tłumacza TFLite.
Uwaga: obiekt Model może mieć maksymalnie 1 model TFLite naraz i zawsze posiada instancję interpretera TFLite, aby go uruchomić.
Zagnieżdżone klasy
| klasa | Model.Builder |
Ta klasa została wycofana. Użyj adresu Model.createModel(Context, String, Options).
|
|
| enum | typ wyliczeniowy | Model.Device | Typ urządzenia środowiska wykonawczego używany do klasyfikacji. | |
| klasa | Model.Options | Opcje uruchamiania modelu. | |
Metody publiczne
| void |
close()
|
| statyczny Model |
createModel(kontekst, ścieżka modelu String, opcje Model.Options)
Wczytuje model z zasobów i zainicjuje interpreter TFLite z podanymi opcjami.
|
| statyczny Model |
createModel(kontekst, ciąg znaków modelPath)
Wczytuje model z zasobów i zainicjuje interpreter TFLite.
|
| MappedByteBuffer |
getData()
Zwraca dane modelu zmapowane w pamięci.
|
| Tensor |
getInputTensor(int inputIndex)
Pobiera Tensor powiązany z podanym indeksem danych wejściowych.
|
| Tensor |
getOutputTensor(intoutputIndex)
Pobiera Tensor powiązany z podanym indeksem wyjściowym.
|
| int[] |
getOutputTensorShape(intoutputIndex)
Zwraca kształt wyjściowy.
|
| String |
getPath()
Zwraca ścieżkę pliku modelu zapisanego w zasobach.
|
| void |
run(dane wejściowe Object[], mapa<liczba całkowita, dane wyjściowe obiektu>)
Uruchamia wnioskowanie na podstawie modelu dla wielu danych wejściowych i zwraca wiele danych wyjściowych.
|
Metody dziedziczone
Metody publiczne
public void close ()
public static Model createModel (Kontekst kontekst, String modelPath, Model.Options opcje)
Wczytuje model z zasobów i zainicjuje interpreter TFLite z podanymi opcjami.
Parametry
| sytuacja | Kontekst aplikacji. |
|---|---|
| modelPath | Ścieżka pliku modelu. |
| Opcje | Opcje uruchamiania modelu. |
Rzuty
| IOException | jeśli wystąpi wyjątek podczas otwierania pliku modelu. |
|---|
Zobacz również
public static Model createModel (Kontekst; Ciąg ModelPath)
Wczytuje model z zasobów i zainicjuje interpreter TFLite.
Opcje domyślne to: (1) procesor; (2) jeden wątek.
Parametry
| sytuacja | Kontekst aplikacji. |
|---|---|
| modelPath | Ścieżka pliku modelu. |
Rzuty
| IOException | jeśli wystąpi wyjątek podczas otwierania pliku modelu. |
|---|
public Tensor getInputTensor (int inputIndex)
Pobiera Tensor powiązany z podanym indeksem danych wejściowych.
Parametry
| inputIndex |
|---|
Rzuty
| IllegalStateException | jeśli tłumacz jest zamknięty. |
|---|
public Tensor getOutputTensor (intoutputIndex)
Pobiera Tensor powiązany z podanym indeksem wyjściowym.
Parametry
| outputIndex |
|---|
Rzuty
| IllegalStateException | jeśli tłumacz jest zamknięty. |
|---|
public int[] getOutputTensorShape (intoutputIndex)
Zwraca kształt wyjściowy. Ta opcja jest przydatna, jeśli kształt wyjściowy jest określany tylko podczas tworzenia wykresu.
Parametry
| outputIndex |
|---|
Rzuty
| IllegalStateException | jeśli tłumacz jest zamknięty. |
|---|
public void run (Object[] wpisy wejściowe, mapa<liczba całkowita, obiekt>)
Uruchamia wnioskowanie na podstawie modelu dla wielu danych wejściowych i zwraca wiele danych wyjściowych.
Parametry
| dane wejściowe | tablicę danych wejściowych. Dane wejściowe powinny mieć taką samą kolejność jak dane wejściowe modelu. Każde dane wejściowe mogą być tablicą lub tablicą wielowymiarową albo ByteBuffer typów podstawowych, takich jak int, float, long i byte. ByteBuffer jest preferowanym sposobem przekazywania dużych danych wejściowych, natomiast typy ciągów znaków wymagają użycia (wielowymiarowej) ścieżki wejściowej tablicy. Jeśli używana jest właściwość ByteBuffer, jej treść powinna pozostać niezmieniona, dopóki nie zostanie wnioskowane model. |
|---|---|
| dane wyjściowe | mapuje indeksy wyjściowe odwzorowujące wielowymiarowe tablice danych wyjściowych lub obiekty ByteBuffer typów podstawowych, w tym typu int, float, Long i byte. Wystarczy, że będzie przechowywać wpisy, aby były używane dane wyjściowe.
|