TensorFlow Lite w Usługach Google Play

Platforma TensorFlow Lite jest dostępna w środowisku wykonawczym Usług Google Play na wszystkich urządzeniach z Androidem, na których działa bieżąca wersja Usług Google Play. To środowisko wykonawcze umożliwia uruchamianie modeli systemów uczących się (ML) bez statycznego grupowania bibliotek TensorFlow Lite w aplikacji.

Dzięki interfejsowi Google Play Services API możesz zmniejszyć rozmiar swoich aplikacji i uzyskać lepszą wydajność dzięki najnowszej stabilnej wersji bibliotek. TensorFlow Lite w Usługach Google Play to zalecany sposób korzystania z TensorFlow Lite na Androidzie.

Jeśli w swojej aplikacji używasz już samodzielnego środowiska TensorFlow Lite, zapoznaj się z sekcją Migracja z samodzielnego środowiska TensorFlow Lite, aby zaktualizować istniejącą aplikację tak, aby używała środowiska wykonawczego Usług Google Play. Więcej informacji o Usługach Google Play znajdziesz na stronie Usług Google Play.

Przy użyciu środowiska wykonawczego Usług Google Play

TensorFlow Lite w Usługach Google Play jest dostępny za pomocą tych interfejsów API języka programowania:

Ograniczenia

TensorFlow Lite w Usługach Google Play ma te ograniczenia:

  • Obsługa przedstawicieli akceleracji sprzętowej jest ograniczona do przedstawicieli wymienionych w sekcji Akcelerator sprzętowy. Nie są obsługiwani żadne inne osoby z przekazanym dostępem do akceleracji.
  • Eksperymentalne lub wycofane interfejsy API TensorFlow Lite, w tym operacje niestandardowe, nie są obsługiwane.

Pomoc techniczna i komentarze

Możesz przesyłać opinie i uzyskiwać pomoc za pomocą narzędzia do śledzenia problemów TensorFlow. Problemy i prośby o pomoc możesz zgłaszać, korzystając z szablonu problemu z TensorFlow Lite w Usługach Google Play.

Warunki korzystania z usługi

Korzystanie z TensorFlow Lite w interfejsach API Usług Google Play podlega Warunkom korzystania z interfejsów API Google.

Prywatność i zbieranie danych

Gdy korzystasz z TensorFlow Lite w interfejsach API Usług Google Play, przetwarzanie danych wejściowych, takich jak obrazy, filmy czy tekst, odbywa się w całości na urządzeniu, a TensorFlow Lite w interfejsach API Usług Google Play nie wysyła tych danych na serwery Google. Dzięki temu możesz używać naszych interfejsów API do przetwarzania danych, które nie powinny opuszczać urządzenia.

TensorFlow Lite w interfejsach API Usług Google Play może od czasu do czasu łączyć się z serwerami Google, aby otrzymać np. poprawki błędów, zaktualizowane modele i informacje o zgodności akceleratora sprzętowego. TensorFlow Lite w interfejsach API usług Google Play wysyła też do Google dane o wydajności i wykorzystaniu interfejsów API w Twojej aplikacji. Google używa tych danych do pomiaru wydajności, debugowania, utrzymywania i ulepszania interfejsów API oraz wykrywania nadużyć i nadużyć zgodnie z opisem w naszej Polityce prywatności.

Musisz informować użytkowników swojej aplikacji o tym, jak Google przetwarza TensorFlow Lite w danych wskaźników interfejsów API Usług Google Play zgodnie z obowiązującymi przepisami.

Gromadzone przez nas dane obejmują:

  • Informacje o urządzeniu (takie jak producent, model, wersja systemu operacyjnego i kompilacja) oraz dostępne akceleratory sprzętowe systemów uczących się (GPU i DSP). Służy do diagnostyki i statystyk użytkowania.
  • Identyfikator urządzenia używany do diagnostyki i analizy użytkowania.
  • informacje o aplikacji (nazwa pakietu, wersja aplikacji); Służy do diagnostyki i analizy użytkowania.
  • Konfiguracja interfejsu API (np. korzystanie z przedstawicieli). Służy do celów diagnostycznych i statystyk użytkowania.
  • Typ zdarzenia (np. utworzenie interpretera, wnioskowanie). Służy do diagnostyki i analizy użytkowania.
  • Kody błędów. Służy do diagnostyki.
  • Dane o skuteczności. Służy do diagnostyki.