Uruchamianie LLM na urządzeniu za pomocą LiteRT-LM
Gotowa do wykorzystania w środowisku produkcyjnym platforma wnioskowania typu open source zaprojektowana z myślą o wdrażaniu na urządzeniach brzegowych dużych modeli językowych (LLM) o wysokiej wydajności i działających na wielu platformach.
Wyróżnione
Generatywna AI na urządzeniu w Chrome, Chromebooku Plus i Pixel Watch z LiteRT-LM.
Dlaczego LiteRT-LM?
Na wielu platformach
wdrażać duże modele językowe na urządzeniach z Androidem, iOS, w internecie i na komputerach;
Akceleracja sprzętowa
Maksymalizacja wydajności dzięki akceleracji GPU i NPU.
Szerokie możliwości generatywnej AI
Obsługa popularnych dużych modeli językowych, a także multimodalności (wizja, dźwięk) i korzystania z narzędzi.
Zacznij tworzyć
Python
Interfejsy API Pythona z akceleracją sprzętową w systemach Linux, macOS, Windows i Raspberry Pi.
Android
Natywne aplikacje na Androida i narzędzia na komputery oparte na JVM.
iOS
Natywna integracja z iOS i macOS ze specjalistyczną obsługą Metal (interfejsy API Swift będą dostępne wkrótce).
C++
Interfejsy API C++ na różne platformy .
Blogi i ogłoszenia
Generatywna AI na urządzeniu w Chrome, Chromebooku Plus i Pixel Watch
Wdrażaj modele językowe na urządzeniach do noszenia i platformach przeglądarkowych na dużą skalę za pomocą LiteRT-LM.
Wywoływanie funkcji na urządzeniu w aplikacji Galeria AI Edge od Google
Dowiedz się, jak dostroić model FunctionGemma i włączyć funkcje wywoływania funkcji oparte na interfejsach LiteRT-LM Tool Use API.
Małe modele językowe, multimodalność i wywoływanie funkcji w AI Edge od Google
Najnowsze informacje o RAG, multimodalności i wywoływaniu funkcji w przypadku modeli językowych na urządzeniach brzegowych.
Dołącz do społeczności
LiteRT-LM w GitHubie
Współpracuj przy projekcie open source, zgłaszaj problemy i zapoznaj się z przykładami.
Hugging Face
Pobierz wstępnie przekonwertowane modele i dołącz do dyskusji.