Wytrenowane modele dla TensorFlow Lite

Istnieje wiele wytrenowanych modeli open source, których możesz używać od razu w TensorFlow Lite do realizacji wielu zadań systemów uczących się. Użycie już wytrenowanych modeli TensorFlow Lite pozwala szybko dodawać funkcje systemów uczących się do aplikacji na urządzeniach mobilnych i urządzeniach brzegowych bez konieczności tworzenia i wytrenowania modelu. Ten przewodnik pomoże Ci znaleźć wytrenowane modele do wykorzystania z TensorFlow Lite.

Możesz rozpocząć przeglądanie dużego zestawu modeli w modelach Kaggle.

Znajdź model dla swojej aplikacji

Znalezienie istniejącego modelu TensorFlow Lite dla danego przypadku użycia może być trudne, w zależności od tego, co chcesz osiągnąć. Oto kilka zalecanych sposobów znajdowania modeli do wykorzystania w TensorFlow Lite:

Na przykład: najszybszym sposobem na znalezienie i rozpoczęcie korzystania z modeli w TensorFlow Lite jest przejrzenie sekcji Przykłady TensorFlow Lite w celu znalezienia modeli wykonujących zadanie podobne do Twojego. Ten krótki katalog przykładów zawiera modele typowych przypadków użycia wraz z wyjaśnieniami i przykładowym kodem, które ułatwiają rozpoczęcie korzystania z nich.

Według typu danych wejściowych: oprócz zapoznawania się z przykładami podobnymi do Twojego zastosowania innym sposobem odkrywania modeli do własnego użytku jest określenie typu danych, które chcesz przetwarzać, np. danych dźwiękowych, tekstowych, graficznych czy wideo. Modele systemów uczących się są często zaprojektowane do używania z jednym z tych typów danych, więc znalezienie modeli obsługujących dany typ danych może pomóc w zawężeniu wyboru modeli, które należy wziąć pod uwagę.

Poniżej znajdziesz linki do modeli TensorFlow Lite w modelach Kaggle dotyczących typowych przypadków użycia:

Wybieraj spośród podobnych modeli

Jeśli Twoja aplikacja działa w typowym przypadku użycia, takim jak klasyfikacja obrazów lub wykrywanie obiektów, możesz wybierać między wieloma modelami TensorFlow Lite o odmiennych rozmiarach plików binarnych, wielkości wejściowych danych, szybkości wnioskowania i ocenach dokładności prognoz. Decydując się na jeden z wielu modeli, zawęź opcje najpierw na podstawie najbardziej ograniczającego ograniczenia: rozmiaru modelu, rozmiaru danych, szybkości wnioskowania lub dokładności.

Jeśli nie masz pewności, jakie jest Twoje ograniczenie, załóżmy, że jest to rozmiar modelu i wybierz najmniejszy dostępny model. Wybór małego modelu zapewnia największą swobodę, jeśli chodzi o urządzenia, na których można skutecznie wdrożyć i uruchomić model. Mniejsze modele pozwalają też zwykle szybciej wnioskować, a szybsze prognozy zapewniają zwykle lepsze wrażenia użytkowników. Mniejsze modele mają zwykle niższe współczynniki dokładności, więc jeśli dokładność prognozy jest dla Ciebie głównym problemem, konieczne może być wybranie większych modeli.

Źródła modeli

Użyj sekcji Przykłady TensorFlow Lite i Modele Kaggle jako pierwszych miejsc docelowych do znajdowania i wybierania modeli do wykorzystania z TensorFlow Lite. Te źródła zazwyczaj mają aktualne, wyselekcjonowane modele do wykorzystania z TensorFlow Lite i często zawierają przykładowy kod, aby przyspieszyć proces programowania.

Modele TensorFlow

Możesz przekonwertować zwykłe modele TensorFlow na format TensorFlow Lite. Więcej informacji o konwertowaniu modeli znajdziesz w dokumentacji TensorFlow Lite Converter. Modele TensorFlow znajdziesz w modelach Kaggle oraz w ogrodzie modeli TensorFlow.