Dostępnych jest wiele wytrenowanych modeli open source, których możesz od razu używać w LiteRT do wykonywania wielu zadań związanych z uczeniem maszynowym. Korzystanie z wstępnie wytrenowanych modeli LiteRT umożliwia szybkie dodawanie funkcji uczenia maszynowego do aplikacji na urządzenia mobilne i urządzenia brzegowe bez konieczności tworzenia i trenowania modelu. Ten przewodnik pomoże Ci znaleźć wytrenowane modele do użycia z LiteRT i podjąć decyzję, które z nich wybrać.
Duży zbiór modeli możesz przeglądać na stronie Kaggle Models.
Znajdowanie modelu do aplikacji
Znalezienie istniejącego modelu LiteRT do Twojego zastosowania może być trudne w zależności od tego, co chcesz osiągnąć. Oto kilka zalecanych sposobów odkrywania modeli do użycia z LiteRT:
Na przykład: najszybszym sposobem na znalezienie i rozpoczęcie korzystania z modeli w TensorFlow Lite jest przeglądanie sekcji LiteRT Examples, aby znaleźć modele wykonujące zadanie podobne do Twojego przypadku użycia. Ten krótki katalog przykładów zawiera modele typowych przypadków użycia wraz z wyjaśnieniami i przykładowym kodem, który pomoże Ci zacząć je uruchamiać i wykorzystywać.
Według typu danych wejściowych: oprócz przeglądania przykładów podobnych do Twojego przypadku użycia możesz też odkrywać modele do własnych zastosowań, biorąc pod uwagę typ danych, które chcesz przetwarzać, np. dane audio, tekstowe, obrazowe lub wideo. Modele uczenia maszynowego są często projektowane do używania z jednym z tych typów danych, więc szukanie modeli, które obsługują typ danych, którego chcesz użyć, może pomóc Ci zawęzić wybór.
Poniżej znajdziesz linki do modeli LiteRT na Kaggle Models w przypadku typowych zastosowań:
- Modele klasyfikacji obrazów
- Modele wykrywania obiektów
- Modele klasyfikacji tekstu
- Modele wektorów dystrybucyjnych tekstu
- Modele syntezy mowy
- Modele wektorów dystrybucyjnych audio
Wybór spośród podobnych modeli
Jeśli Twoja aplikacja jest zgodna z typowym przypadkiem użycia, takim jak klasyfikacja obrazów lub wykrywanie obiektów, możesz wybierać spośród wielu modeli TensorFlow Lite o różnych rozmiarach binarnych, rozmiarach danych wejściowych, szybkości wnioskowania i ocenach dokładności prognozowania. Wybierając spośród kilku modeli, najpierw ogranicz liczbę opcji na podstawie najbardziej ograniczającego Cię czynnika: rozmiaru modelu, rozmiaru danych, szybkości wnioskowania lub dokładności.
Jeśli nie masz pewności, jakie jest Twoje największe ograniczenie, załóż, że jest to rozmiar modelu, i wybierz najmniejszy dostępny model. Wybór małego modelu zapewnia największą elastyczność pod względem urządzeń, na których można go wdrożyć i uruchomić. Mniejsze modele zwykle szybciej wyciągają wnioski, a szybsze prognozy zapewniają lepsze wrażenia użytkownikom. Mniejsze modele mają zwykle niższe wskaźniki dokładności, więc jeśli zależy Ci przede wszystkim na dokładności prognoz, możesz wybrać większe modele.
Źródła modeli
Skorzystaj z sekcji LiteRT Examples i Kaggle Models, aby znaleźć i wybrać modele do użycia z TensorFlow Lite. Te źródła zwykle zawierają aktualne, wyselekcjonowane modele do użytku z LiteRT i często obejmują przykładowy kod, który przyspiesza proces tworzenia.
Modele TensorFlow
Możesz przekonwertować zwykłe modele TensorFlow na format TensorFlow Lite. Więcej informacji o konwertowaniu modeli znajdziesz w dokumentacji konwertera TensorFlow Lite. Modele TensorFlow znajdziesz na stronie Kaggle Models i w TensorFlow Model Garden.