Wytrenowane modele na potrzeby LiteRT

Istnieje wiele wytrenowanych modeli open source, których możesz używać bezpośrednio przy użyciu LiteRT do wykonywania wielu zadań związanych z systemami uczącymi się. Użycie już wytrenowanych modeli LiteRT pozwala dodawać systemy uczące się w aplikacjach na urządzenia mobilne i urządzenia brzegowe, bez potrzeby aby zbudować i wytrenować model. Ten przewodnik pomoże Ci znaleźć modeli do użytku z LiteRT.

Możesz rozpocząć przeglądanie dużej liczby modeli w Kaggle Modele.

Znajdź model dla swojej aplikacji

Znalezienie istniejącego modelu LiteRT dla danego zastosowania może być trudne w zależności od tego, co chcesz osiągnąć. Oto kilka zalecanych sposobów aby znaleźć modele do wykorzystania z LiteRT:

Przykład: najszybszy sposób na znalezienie i rozpoczęcie korzystania z modeli za pomocą TensorFlow Lite jest przeglądanie LiteRT Przykłady znajdziesz modele wykonujące zadanie podobne do Twojego przypadku użycia. Ten krótki katalog zawiera modele do typowych zastosowań na temat modeli i przykładowego kodu, które ułatwią Ci rozpoczęcie pracy i korzystanie z nich .

Według typu danych wejściowych: oprócz przykładów podobnych do Twojego zastosowania Innym sposobem odkrywania modeli do użytku własnego jest określenie typu danych które chcesz przetworzyć, np. dźwięk, tekst, obrazy lub dane wideo. Maszyna modele uczenia się są często zaprojektowane do użycia z jednym z tych typów danych, dlatego szukanie modeli, które obsługują ten typ danych, może pomóc doprecyzować, które modele należy wziąć pod uwagę.

Poniżej znajdziesz linki do modeli LiteRT w Kaggle Modele do typowych przypadków użycia:

Wybieraj spośród podobnych modeli

Jeśli Twoja aplikacja jest zgodna z typowym przypadkiem użycia, takim jak klasyfikacja obrazów lub wykrywania obiektów, może się zdarzyć, że będziesz wybierać między wieloma TensorFlow Modele Lite o różnych rozmiarach plików binarnych, rozmiarach wejściowych danych, szybkości wnioskowania oceny dokładności prognoz. Wybierając spośród wielu modeli, powinno zawęzić opcje w pierwszej kolejności do najbardziej restrykcyjnego ograniczenia: rozmiar modelu, rozmiaru danych, szybkości wnioskowania czy dokładności.

Jeśli nie masz pewności, jakie jest Twoje ograniczenie, załóżmy, że jest to rozmiar i wybrać najmniejszy z dostępnych modeli. Wybór małego modelu zapewni najbardziej elastyczne podejście do urządzeń, na których wdrożyć i uruchomić model. Mniejsze modele zwykle generują też szybsze rezultaty. wniosków i szybsze prognozy przynoszą zwykle lepsze wyniki i aplikacji. Mniejsze modele mają zwykle niższe współczynniki dokładności, więc może być konieczne aby wybrać większe modele, jeśli dokładność prognoz jest dla Ciebie głównym problemem.

Źródła modeli

Korzystanie z platformy LiteRT Przykłady i Modele Kaggle jako Twoich pierwszych miejsc docelowych do wyszukiwania i wybierania modeli do użycia z TensorFlow Uproszczona. Źródła te mają zwykle aktualne, wyselekcjonowane modele do stosowania z LiteRT i często załączaj przykładowy kod, by przyspieszyć jego rozwoju.

Modele TensorFlow

Można przekonwertować zwykłe modele TensorFlow na TensorFlow Wersja uproszczona. Więcej informacji o konwertowaniu modeli znajdziesz w dokumentacji TensorFlow Lite Converter. Modele TensorFlow znajdziesz w Modele Kaggle oraz Model TensorFlow Ogród.