Wydajne konwersje, czas działania i optymalizacja na potrzeby uczenia maszynowego na urządzeniu.
LiteRT to nie tylko nowość, ale też nowa generacja najczęściej wdrażanego na świecie środowiska wykonawczego uczenia maszynowego. Umożliwia działanie aplikacji, których używasz na co dzień, zapewniając niskie opóźnienia i wysoki poziom prywatności na miliardach urządzeń.

Zaufane przez najważniejsze aplikacje Google

Ponad 100 tys. aplikacji i miliardy użytkowników na całym świecie

Najważniejsze informacje o LiteRT

Wdrażanie za pomocą LiteRT

Uprość przepływ pracy deep learningu od trenowania po wdrażanie na urządzeniu.
Używaj wstępnie wytrenowanych modeli .tflite lub konwertuj modele PyTorch, JAX lub TensorFlow na format .tflite.
Użyj zestawu narzędzi do optymalizacji LiteRT, aby skwantyzować modele po trenowaniu.
Wdróż model za pomocą LiteRT i wybierz optymalny akcelerator dla swojej aplikacji.

Wybierz ścieżkę rozwoju

Używaj LiteRT do wdrażania AI w dowolnym miejscu – od wydajnych aplikacji mobilnych po urządzenia IoT o ograniczonych zasobach.
Przejście na LiteRT, aby korzystać z większej wydajności i ujednoliconych interfejsów API na różnych platformach (Android, komputery, internet).
Masz model PyTorch i chcesz wdrożyć na urządzeniu funkcje związane z obrazem lub dźwiękiem.
Tworzenie zaawansowanych chatbotów na urządzeniach przy użyciu zoptymalizowanych modeli generatywnej AI o otwartej architekturze, takich jak Gemma lub inny model o otwartej architekturze.
Tworzenie modeli niestandardowych lub przeprowadzanie szczegółowych optymalizacji sprzętowych pod kątem procesora, karty graficznej lub jednostki NPU w celu uzyskania maksymalnej wydajności.

Próbki, modele i wersje demonstracyjne

Wytrenowane, gotowe do użycia modele generatywnej AI.
Galeria prezentująca przypadki użycia uczenia maszynowego i generatywnej AI na urządzeniu z użyciem LiteRT.

Blogi i ogłoszenia

Bądź na bieżąco z najnowszymi ogłoszeniami, szczegółowymi informacjami technicznymi i testami wydajności zespołu LiteRT.
Ujednolicona platforma ML Google na urządzeniu, która powstała na bazie TFLite i umożliwia wdrażanie o wysokiej wydajności.
Rozszerzenie obsługi akceleracji NPU na chipsety MediaTek w celu zapewnienia wysokiej wydajności AI.
Zapewnianie przełomowej wydajności generatywnej AI na jednostkach NPU firmy Qualcomm.
Przedstawiamy interfejs CompiledModel API do automatycznego wybierania sprzętu i wykonywania asynchronicznego.
Wdrażaj modele językowe na urządzeniach do noszenia i platformach przeglądarkowych za pomocą LiteRT-LM.
Najnowsze informacje o systemach RAG, multimodalności i wywoływaniu funkcji w przypadku modeli językowych na urządzeniach brzegowych

Dołącz do społeczności

Bezpośrednio uczestniczyć w projekcie i współpracować z głównymi deweloperami.
Uzyskaj dostęp do zoptymalizowanych modeli z otwartymi wagami w centrum Hugging Face.
Chcesz przenieść uczenie maszynowe na urządzeniu na wyższy poziom? Zapoznaj się z dokumentacją i zacznij tworzyć już dziś.