Wdrażanie AI w aplikacjach mobilnych, internetowych i osadzonych
-
Na urządzeniu
zmniejszyć opóźnienia; Praca w trybie offline. Zadbaj o poufność i lokalność danych.
-
Na wielu platformach
Używanie tego samego modelu na Androidzie, iOS, w internecie i w ramach aplikacji.
-
Wiele frameworków
Zgodność z modelami JAX, Keras, PyTorch i TensorFlow.
-
Pełny pakiet AI na urządzeniach Edge
Elastyczne platformy, gotowe rozwiązania, akceleratory sprzętowe
gotowe rozwiązania i elastyczne ramy.
Interfejsy API do typowych zadań związanych z AI, które nie wymagają pisania kodu
Interfejsy API na wiele platform do wykonywania typowych zadań związanych z generatywną AI, obrazowaniem, tekstem i dźwiękiem.
Zaczynaj korzystać z zadań MediaPipeWdrażanie modeli niestandardowych na różnych platformach
wydajnie uruchamiać modele JAX, Keras, PyTorch i TensorFlow na urządzeniach z Androidem, iOS, w przeglądarce i wbudowanych, zoptymalizowanych pod kątem tradycyjnych systemów uczących się i generatywnej AI;
Pierwsze kroki z LiteRTSkrócenie cykli programowania dzięki wizualizacji
Wizualizacja przekształcenia modelu przez konwersję i kwantyzację. Debugowanie obszarów problemowych polegające na nakładaniu wyników wzorców.
Pierwsze kroki z Eksploratorem modelitworzyć niestandardowe potoki do obsługi skomplikowanych funkcji ML.
Utwórz własne zadanie, łącząc wydajnie wiele modeli ML z logiką wstępną i końcową. Uruchamianie przyspieszonych ścieżek (GPU i NPU) bez blokowania procesora CPU.
Pierwsze kroki z platformą MediaPipe Frameworknarzędzia i platformy, które obsługują aplikacje Google;
Poznaj pełną platformę AI Edge z produktami na każdym poziomie – od interfejsów API typu low-code po biblioteki przyspieszające działanie na konkretnym sprzęcie.
MediaPipe Tasks
Szybko twórz funkcje AI w aplikacjach mobilnych i internetowych za pomocą interfejsów API, które nie wymagają pisania dużych ilości kodu. Wykorzystaj je do wykonywania typowych zadań związanych z generatywną AI, rozpoznawaniem obrazów, tekstem i dźwiękiem.
Generatywna AI
Zintegruj modele generowania języka i obrazów bezpośrednio w swoich aplikacjach za pomocą gotowych interfejsów API.
Vision
Poznaj szeroki zakres zadań związanych z wizją, obejmujący podział na segmenty, klasyfikację, wykrywanie, rozpoznawanie i lokalizowanie punktów orientacyjnych ciała.
Tekst i dźwięk
Klasyfikuj tekst i dźwięk w różnych kategoriach, m.in. języka, nastawienia i własnych kategorii.
Rozpocznij
MediaPipe Framework
Platforma niskiego poziomu używana do tworzenia wydajnych przyspieszonych ścieżek ML, często obejmująca wiele modeli ML połączonych z przetwarzaniem wstępnym i końcowym.
LiteRT
wdrażać modele AI utworzone w dowolnym frameworku na urządzeniach mobilnych, w internecie i na mikrokontrolerach z optymalizacją przyspieszenia sprzętowego;
Wiele frameworków
Konwertuj modele z JAX, Keras, PyTorch i TensorFlow, aby można było je uruchamiać na urządzeniach brzegowych.
Na wielu platformach
Uruchom ten sam model na Androidzie, iOS, w internecie i na mikrokontrolerach z użyciem natywnych pakietów SDK.
Lekka i szybka
Środowisko wykonawcze LiteRT zajmuje tylko kilka megabajtów i umożliwia przyspieszenie modelu na procesorach CPU, GPU i NPU.
Rozpocznij
Eksplorator modeli
Wizualnie przeglądaj, debuguj i porównuj modele. Nakładaj testy porównawcze wydajności i dane liczbowe, aby wskazywać problematyczne miejsca.
Gemini Nano na Androidzie i w Chrome
Twórz rozwiązania wspomagane generatywną AI, korzystając z najbardziej zaawansowanego modelu na urządzeniu od Google