Wdrażaj AI w aplikacjach mobilnych, internetowych i umieszczonych
-
Na urządzeniu
Mniejsze opóźnienia. Pracuj offline. Przechowuj dane lokalnie i prywatne.
-
Na wielu platformach
Mogą działać na tym samym modelu na urządzeniach z Androidem i iOS oraz w internecie i na stronach internetowych.
-
Wiele ramek
Zgodny z modelami JAX, Keras, PyTorch i TensorFlow.
-
Pełny stos brzegowy AI
Elastyczne platformy, gotowe rozwiązania, akceleratory sprzętowe
Gotowe rozwiązania i elastyczne platformy
Interfejsy API, które nie wymagają pisania dużych ilości kodu do typowych zadań AI
Wieloplatformowe interfejsy API do wykonywania typowych zadań związanych z generatywną AI, rozpoznawaniem, tekstem i dźwiękiem.
Pierwsze kroki z zadaniami MediaPipeWdrażanie modeli niestandardowych na wielu platformach
Wydajnie uruchamiaj modele JAX, Keras, PyTorch i TensorFlow na Androidzie, iOS, w internecie i na urządzeniach wbudowanych, zoptymalizowanych pod kątem tradycyjnych systemów uczących się i generatywnej AI.
Pierwsze kroki z LiteRTSkrócenie cyklu programowania dzięki wizualizacji
Zwizualizuj transformację modelu przez konwersję i kwantyzację. Debuguj hotspoty według i nakładania wyników testów porównawczych.
Pierwsze kroki z Eksploratorem modeliTworzenie niestandardowych potoków na potrzeby złożonych funkcji ML
Utwórz własne zadanie, łącząc wiele modeli ML z przetwarzaniem przed i po nim logikę logiczną. Uruchamianie przyspieszonych potoków (GPU i NPU) bez blokowania procesora.
Pierwsze kroki z MediaPipe FrameworkNarzędzia i platformy, na których opierają się aplikacje Google
Poznaj pełen pakiet brzegowy AI obejmujący usługi na każdym poziomie – od interfejsów API, które nie wymagają pisania dużych ilości kodu, po biblioteki akceleracji sprzętowej.
Zadania MediaPipe
Dzięki interfejsom API, które nie wymagają pisania dużych ilości kodu, możesz szybko wbudować w aplikacje mobilne i internetowe funkcje AI do typowych zadań, takich jak generatywna AI, rozpoznawanie obrazów, tekst i dźwięk.
Generatywna AI
Integruj generatywne modele językowe i obrazowe bezpośrednio ze swoimi aplikacjami za pomocą gotowych do użycia interfejsów API.
Vision
Poznaj szeroką gamę zadań wizyjnych, które obejmują segmentację, klasyfikację, wykrywanie, rozpoznawanie i punkty orientacyjne ciała.
Tekst i plik dźwiękowy.
Możesz klasyfikować tekst i dźwięk według wielu kategorii, np. języka, uczuć i własnych niestandardowych kategorii.
Rozpocznij
Platforma MediaPipe
Platforma niskopoziomowa używana do tworzenia potoków ML o wysokiej wydajności, często obejmujących wiele modeli ML w połączeniu z przetwarzaniem przed i po.
LiteRT
Wdrażaj modele AI utworzone w dowolnej platformie na urządzeniach mobilnych, w internecie i w mikrokontrolerach ze zoptymalizowaną akceleracją sprzętową.
Wiele ramek
Konwertuj modele z JAX, Keras, PyTorch i TensorFlow, aby uruchamiać je na brzegu.
Na wielu platformach
Uruchom ten sam model na Androidzie, iOS i w przeglądarce oraz na mikrokontrolerach za pomocą natywnych pakietów SDK.
Lekkie szybka
Wydajne środowisko wykonawcze LiteRT zajmuje tylko kilka megabajtów i umożliwia akcelerację modelu z uwzględnieniem CPU, GPU i NPU.
Rozpocznij
Eksplorator modeli
Przeglądaj, debuguj i porównuj modele wizualnie. Nałóż analizy porównawcze wydajności i dane liczbowe, aby zidentyfikować problematyczne miejsca.
Gemini Nano w Androidzie i Chrome,
Twórz funkcje generatywnej AI, korzystając z najbardziej zaawansowanego modelu Google działającego na urządzeniu