Wdrażanie AI w aplikacjach mobilnych, internetowych i osadzonych
-
Na urządzeniu
zmniejszyć opóźnienia; Praca w trybie offline. Zadbaj o poufność i lokalność danych.
-
Na wielu platformach
Używanie tego samego modelu na Androidzie, iOS, w internecie i w ramach aplikacji.
-
Wiele frameworków
Zgodny z modelami JAX, Keras, PyTorch i TensorFlow.
-
Pełny pakiet AI na urządzeniach Edge
Elastyczne platformy, gotowe rozwiązania, akceleratory sprzętowe
Gotowe rozwiązania i elastyczne platformy
Interfejsy API, które nie wymagają pisania dużych ilości kodu do typowych zadań AI
Wieloplatformowe interfejsy API do wykonywania typowych zadań związanych z generatywną AI, rozpoznawaniem, tekstem i dźwiękiem.
Zaczynaj korzystać z zadań MediaPipeWdrażanie modeli niestandardowych na różnych platformach
wydajnie uruchamiać modele JAX, Keras, PyTorch i TensorFlow na urządzeniach z Androidem, iOS, w przeglądarce i wbudowanych, zoptymalizowanych pod kątem tradycyjnych systemów uczących się i generatywnej AI;
Pierwsze kroki z LiteRTSkrócenie cykli programowania dzięki wizualizacji
Zwizualizuj transformację modelu przez konwersję i kwantyzację. Debugowanie obszarów problemowych polegające na nakładaniu wyników wzorców.
Pierwsze kroki z Eksploratorem modeliTworzenie niestandardowych potoków na potrzeby złożonych funkcji ML
Utwórz własne zadanie, łącząc wiele modeli ML z logiką przed przetwarzaniem i po nim. uruchamiać przyspieszone ścieżki (GPU i NPU) bez blokowania procesora CPU.
Pierwsze kroki z platformą MediaPipe Frameworknarzędzia i platformy, które obsługują aplikacje Google;
Poznaj pełną platformę AI Edge z produktami na każdym poziomie – od interfejsów API typu low-code po biblioteki przyspieszające działanie na konkretnym sprzęcie.
MediaPipe Tasks
Dzięki interfejsom API, które nie wymagają pisania dużych ilości kodu, możesz szybko wbudować w aplikacje mobilne i internetowe funkcje AI do typowych zadań, takich jak generatywna AI, rozpoznawanie obrazów, tekst i dźwięk.
Generatywna AI
Integruj generatywne modele językowe i obrazowe bezpośrednio ze swoimi aplikacjami za pomocą gotowych do użycia interfejsów API.
Vision
Poznaj szeroki zakres zadań związanych z wizualizacją, obejmujący podział na segmenty, klasyfikację, wykrywanie, rozpoznawanie i lokalizowanie punktów na ciele.
Tekst i dźwięk
Klasyfikuj tekst i dźwięk w różnych kategoriach, m.in. języka, nastawienia i własnych kategorii.
Rozpocznij
MediaPipe Framework
Platforma niskopoziomowa używana do tworzenia potoków ML o wysokiej wydajności, często obejmujących wiele modeli ML w połączeniu z przetwarzaniem przed i po.
LiteRT
wdrażać modele AI utworzone w dowolnym frameworku na urządzeniach mobilnych, w internecie i na mikrokontrolerach z optymalizacją przyspieszenia sprzętowego;
Wiele frameworków
Konwertuj modele z JAX, Keras, PyTorch i TensorFlow na modele przeznaczone do działania na urządzeniach brzegowych.
Na wielu platformach
Uruchom ten sam model na Androidzie, iOS, w internecie i na mikrokontrolerach z użyciem natywnych pakietów SDK.
Lekka i szybka
Środowisko wykonawcze LiteRT zajmuje tylko kilka megabajtów i umożliwia przyspieszenie modelu na procesorach CPU, GPU i NPU.
Rozpocznij
Eksplorator modeli
Przeglądaj, debuguj i porównuj modele wizualnie. Nakładaj testy porównawcze wydajności i dane liczbowe, aby wskazywać problematyczne miejsca.
Gemini Nano na Androidzie i w Chrome
Twórz funkcje generatywnej AI, korzystając z najbardziej zaawansowanego modelu Google działającego na urządzeniu