Wdrażaj AI w aplikacjach mobilnych, internetowych i umieszczonych
-
Na urządzeniu
Mniejsze opóźnienia. Praca w trybie offline. Przechowuj dane lokalnie i prywatne.
-
Na wielu platformach
Używanie tego samego modelu na Androidzie, iOS, w internecie i w ramach aplikacji.
-
Wiele frameworków
Zgodny z modelami JAX, Keras, PyTorch i TensorFlow.
-
Pełny zestaw AI do urządzeń Edge
Elastyczne platformy, gotowe rozwiązania, akceleratory sprzętowe
gotowe rozwiązania i elastyczne ramy.
Interfejsy API do tworzenia aplikacji bez kodowania do typowych zadań związanych z AI
Wieloplatformowe interfejsy API do wykonywania typowych zadań związanych z generatywną AI, rozpoznawaniem, tekstem i dźwiękiem.
Zaczynaj korzystać z zadań MediaPipeWdrażanie modeli niestandardowych na wielu platformach
Wydajnie uruchamiaj modele JAX, Keras, PyTorch i TensorFlow na Androidzie, iOS, w internecie i na urządzeniach umieszczonych na stronach, zoptymalizowanych pod kątem tradycyjnych systemów uczących się i generatywnej AI.
Pierwsze kroki z LiteRTSkrócenie cykli programowania dzięki wizualizacji
Zwizualizuj transformację modelu przez konwersję i kwantyzację. Debugowanie obszarów problemowych polegające na nakładaniu wyników wzorców.
Pierwsze kroki z Eksploratorem modeliTworzenie niestandardowych potoków na potrzeby złożonych funkcji ML
Utwórz własne zadanie, łącząc wydajnie wiele modeli ML z logiką wstępną i końcową. Uruchamianie przyspieszonych potoków (GPU i NPU) bez blokowania procesora.
Pierwsze kroki z platformą MediaPipe FrameworkNarzędzia i platformy, na których opierają się aplikacje Google
Poznaj pełen pakiet brzegowy AI obejmujący usługi na każdym poziomie – od interfejsów API, które nie wymagają pisania dużych ilości kodu, po biblioteki akceleracji sprzętowej.
MediaPipe Tasks
Dzięki interfejsom API, które nie wymagają pisania dużych ilości kodu, możesz szybko wbudować w aplikacje mobilne i internetowe funkcje AI do typowych zadań, takich jak generatywna AI, rozpoznawanie obrazów, tekst i dźwięk.
Generatywna AI
Integruj generatywne modele językowe i obrazowe bezpośrednio ze swoimi aplikacjami za pomocą gotowych do użycia interfejsów API.
Vision
Poznaj szeroką gamę zadań wizyjnych, które obejmują segmentację, klasyfikację, wykrywanie, rozpoznawanie i punkty orientacyjne ciała.
Tekst i plik dźwiękowy.
Możesz klasyfikować tekst i dźwięk według wielu kategorii, np. języka, uczuć i własnych niestandardowych kategorii.
Rozpocznij
Platforma MediaPipe
Platforma niskopoziomowa używana do tworzenia potoków ML o wysokiej wydajności, często obejmujących wiele modeli ML w połączeniu z przetwarzaniem przed i po.
LiteRT
Wdrażaj modele AI utworzone w dowolnej platformie na urządzeniach mobilnych, w internecie i w mikrokontrolerach ze zoptymalizowaną akceleracją sprzętową.
Wiele ramek
Konwertuj modele z JAX, Keras, PyTorch i TensorFlow, aby można było je uruchamiać na urządzeniach brzegowych.
Na wielu platformach
Możesz uruchamiać ten sam model na Androidzie, iOS i w przeglądarce oraz na mikrokontrolerach za pomocą natywnych pakietów SDK.
Lekkie szybka
Wydajne środowisko wykonawcze LiteRT zajmuje tylko kilka megabajtów i umożliwia akcelerację modelu z uwzględnieniem CPU, GPU i NPU.
Rozpocznij
Eksplorator modeli
Przeglądaj, debuguj i porównuj modele wizualnie. Nakładaj testy porównawcze i dane liczbowe, aby wskazywać problematyczne miejsca.
Gemini Nano na Androidzie i w Chrome
Twórz rozwiązania wspomagane generatywną AI, korzystając z najbardziej zaawansowanego modelu na urządzeniu od Google