Google AI Edge
AI na urządzeniu dla aplikacji mobilnych, internetowych i umieszczonych
Rozwiązania na urządzeniu – od modeli po potoki
Przyspiesz wdrażanie ML, optymalizuj potoki i łatwy dostęp do zaawansowanych modeli LLM
Kompleksowy stos zawierający komponenty zarówno wysokiego, jak i niskiego poziomu
Co nowego na konferencji I/O?
MediaPipe
Łatwe tworzenie innowacyjnych rozwiązań ML na urządzeniu
TensorFlow Lite
Lekka, wieloplatformowa biblioteka do wdrażania modeli w aplikacjach mobilnych, internecie oraz mikrokontrolerach.
Generatywna AI działająca na urządzeniu
MediaPipe LLM Inference API
Uruchamiaj modele LLM w całości na urządzeniu i wykonuj wiele zadań, takich jak generowanie tekstu, pobieranie informacji w języku naturalnym i podsumowywanie dokumentów. Interfejs API zapewnia wbudowaną obsługę wielu dużych modeli językowych obsługujących wiele zamiany tekstu na tekst, dzięki czemu możesz stosować w swoich aplikacjach i usługach najnowsze modele generatywnej AI zainstalowane na urządzeniu. Więcej informacji
Generatywny interfejs API Torch
Twórz zaawansowane modele LLM w PyTorch, a potem przekonwertuj je tak, aby działały na urządzeniu za pomocą środowiska wykonawczego TensorFlow Lite (TFLite). Więcej informacji
Gemini Nano
Uzyskaj dostęp do naszego najbardziej wydajnego modelu Gemini do wykonywania zadań na urządzeniu za pomocą Androida AICore. Wkrótce w Chrome.
Dlaczego warto wdrażać ML na urządzeniach brzegowych?
Opóźniona
Pomiń błąd serwera w obie strony, aby łatwo i szybko przetwarzać multimedia w czasie rzeczywistym.
Prywatność
Przeprowadzaj wnioskowanie lokalnie, bez opuszczania urządzenia danych wrażliwych.
Koszt
Korzystaj z zasobów obliczeniowych na urządzeniu i obniż koszty serwerów.
Dostępność w trybie offline
Nie masz połączenia z siecią? To żaden problem.