Tworzenie modeli LiteRT

Na tej stronie znajdziesz wskazówki dotyczące tworzenia modeli TensorFlow z z zamiarem konwersji na format modelu LiteRT. Komputer Modele uczenia się używane w przypadku LiteRT zostały pierwotnie utworzone trenowanych z użyciem podstawowych bibliotek i narzędzi TensorFlow. Po utworzeniu modelu z rdzeniem TensorFlow możesz przekonwertować go na mniejszy i bardziej wydajny model ML. o nazwie LiteRT.

Jeśli masz już model do przekonwertowania, zapoznaj się z artykułem Konwertowanie modeli stronie przeglądu, aby uzyskać wskazówki dotyczące konwersji modelu.

Tworzenie modelu

Jeśli tworzysz model niestandardowy na potrzeby konkretnego przypadku użycia, przez zaprogramowanie i trenowanie modelu TensorFlow lub rozszerzenie istniejącego.

Ograniczenia projektu modelu

Przed rozpoczęciem procesu tworzenia modelu zapoznaj się z z ograniczeniami dla modeli LiteRT i utwórz za ich pomocą ograniczenia:

  • Ograniczone możliwości obliczeniowe – w porównaniu z w pełni wyposażonymi serwerami wiele procesorów, duża pojemność pamięci i specjalistyczne procesory, takie jak GPU i TPU, urządzenia mobilne i urządzenia brzegowe są znacznie ograniczone. Skoro są coraz większą moc obliczeniową i wyspecjalizowaną zgodność sprzętu, a dane, które można skutecznie przetworzyć za ich pomocą, są nadal dość ograniczone.
  • Rozmiar modeli – ogólna złożoność modelu, łącznie z danymi. logiki przetwarzania wstępnego i liczby warstw w modelu, w pamięci modelu. Duży model może działać niedostatecznie wolno lub po prostu może nie mieścić się w dostępnej pamięci urządzenia mobilnego lub urządzenia brzegowego.
  • Rozmiar danych – rozmiar danych wejściowych, które można skutecznie przetworzyć. z modelem systemów uczących się jest ograniczona na urządzeniach mobilnych lub brzegowych. Modele które korzystają z dużych bibliotek danych, takich jak biblioteki języków, biblioteki obrazów, lub biblioteki klipów wideo mogą nie mieścić się na tych urządzeniach i mogą wymagać do przechowywania danych i dostępu do nich.
  • Obsługiwane operacje TensorFlow – środowiska wykonawcze LiteRT obsługują podzbiór operacji na modelu systemów uczących się w porównaniu ze standardowymi Modele TensorFlow. Podczas opracowywania modelu do użytku z literaturześcią powinien śledzić zgodność modelu z możliwościami Środowiska wykonawcze LiteRT.

Więcej informacji o tworzeniu skutecznych, zgodnych i wysokiej wydajności modeli dla LiteRT: zobacz Sprawdzone metody dotyczące wydajności.

Opracowywanie modeli

Aby utworzyć model LiteRT, musisz najpierw utworzyć model przy użyciu Podstawowe biblioteki TensorFlow. Biblioteki podstawowe TensorFlow to biblioteki niższego poziomu bibliotekach udostępniających interfejsy API do tworzenia, trenowania i wdrażania modeli systemów uczących się.

Proces kompilacji w TFLite

TensorFlow pozwala to zrobić na 2 ścieżki. Możesz utworzyć własny, niestandardowy kodu modelu lub możesz zacząć od implementacji modelu dostępnej Baza modeli TensorFlow.

Baza modeli

Baza modeli TensorFlow zapewnia wdrożenia wielu najnowocześniejszych modeli modele uczenia maszynowego (ML) do rozpoznawania i przetwarzania języka naturalnego (NLP). Dostępne są też narzędzia przepływu pracy, które pozwalają szybko w standardowych zbiorach danych. Modele systemów uczących się w bazie modeli dołączyć pełny kod, aby można było je testować, wytrenować lub ponownie przeszkolić za pomocą własnego w wielu zbiorach danych.

Niezależnie od tego, czy przeprowadzasz testy porównawcze dla dobrze znanego modelu, wyników ostatnio opublikowanych badań lub rozszerzania istniejących modeli, Garden może pomóc w osiągnięciu celów związanych z systemami uczącymi się.

Modele niestandardowe

Jeśli Twój przypadek użycia wykracza poza modele obsługiwane przez modele w bazie modeli, możesz korzystać z biblioteki wysokiego poziomu, takiej jak Keras, niestandardowego kodu trenowania. Aby poznać podstawy TensorFlow, obejrzyj Przewodnik po TensorFlow. Aby rozpocząć korzystanie z usługi Przykłady, zobacz samouczki TensorFlow omówienie, które zawiera odnośniki do po samouczki dla zaawansowanych.

Ocena modelu

Po utworzeniu modelu należy ocenić jego wydajność i przetestować na urządzeniach użytkowników. TensorFlow pozwala na to na kilka sposobów.

  • TensorBoard to narzędzie dostarczające pomiary i wizualizacje potrzebne systemów uczących się. Umożliwia śledzenie danych eksperymentu, takich jak utrata i dokładności, wizualizując wykres modelu i rzutując wektory dystrybucyjne na niższe przestrzeń przestrzenną i nie tylko.
  • Narzędzia do analizy porównawczej są dostępne dla każdego obsługiwanego takich jak aplikacja Android Test porównawczy i aplikacja na iOS. Używaj te narzędzia do pomiaru i obliczania statystyk ważnych działań, danych.

Optymalizacja modelu

z ograniczeniami dotyczącymi zasobów specyficznych dla TensorFlow, Modele Lite, optymalizacja modelu może pomóc zapewnić dobrą skuteczność modelu i zużywa mniej zasobów obliczeniowych. Wydajność modelu systemów uczących się jest zwykle między wielkością i szybkością wnioskowania a dokładnością. LiteRT obecnie obsługuje optymalizację przez kwantyzację, przycinanie i grupowanie. Zobacz Optymalizacji modelu. różnych technik. TensorFlow zapewnia też optymalizację modelu zestaw narzędzi zapewniający interfejs API implementujący te różnych technik.

Dalsze kroki