Wnioskowanie z użyciem modeli z metadanymi może być proste i wymagać tylko kilku wierszy kodu. Metadane LiteRT zawierają szczegółowy opis działania modelu i sposobu jego używania. Może on umożliwiać generatorom kodu automatyczne generowanie kodu wnioskowania, np. za pomocą funkcji ML Binding w Android Studio lub generatora kodu LiteRT na Androida. Możesz go też użyć do skonfigurowania niestandardowego potoku wnioskowania.
Narzędzia i biblioteki
LiteRT udostępnia różne narzędzia i biblioteki, które spełniają wymagania dotyczące wdrożenia na różnych poziomach:
Generowanie interfejsu modelu za pomocą generatorów kodu Androida
Niezbędny kod opakowujący na Androida dla modelu LiteRT z metadanymi możesz wygenerować automatycznie na 2 sposoby:
Android Studio ML Model Binding to narzędzie dostępne w Android Studio, które umożliwia importowanie modelu LiteRT za pomocą interfejsu graficznego. Android Studio automatycznie skonfiguruje ustawienia projektu i wygeneruje klasy opakowujące na podstawie metadanych modelu.
Generator kodu LiteRT to plik wykonywalny, który automatycznie generuje interfejs modelu na podstawie metadanych. Obecnie obsługuje Androida z Java. Kod opakowujący eliminuje potrzebę bezpośredniej interakcji z
ByteBuffer. Deweloperzy mogą natomiast wchodzić w interakcje z modelem LiteRT za pomocą obiektów z określonym typem, takich jakBitmapiRect. Użytkownicy Androida Studio mogą też uzyskać dostęp do funkcji generowania kodu za pomocą Android Studio ML Binding.
Tworzenie niestandardowych potoków wnioskowania za pomocą biblioteki pomocy LiteRT
Biblioteka pomocy LiteRT to biblioteka wieloplatformowa, która pomaga dostosowywać interfejs modelu i tworzyć potoki wnioskowania. Zawiera różne metody narzędziowe i struktury danych do przetwarzania wstępnego i końcowego oraz konwersji danych. Jest on też zaprojektowany tak, aby pasował do działania modułów TensorFlow, takich jak TF.Image i TF.Text, co zapewnia spójność od trenowania po wnioskowanie.
Przeglądanie wstępnie wytrenowanych modeli z metadanymi
Przeglądaj modele Kaggle, aby pobierać wstępnie wytrenowane modele z metadanymi do zadań związanych z widzeniem i tekstem. Zobacz też różne opcje wizualizacji metadanych.
Repozytorium GitHub dotyczące pomocy LiteRT
Więcej przykładów i kod źródłowy znajdziesz w repozytorium GitHub projektu LiteRT Support.