Создано на основе проверенной в боевых условиях платформы TensorFlow Lite.
LiteRT — это не просто новая технология; это следующее поколение самой распространенной в мире среды выполнения машинного обучения. Она обеспечивает работу приложений, которыми вы пользуетесь каждый день, гарантируя низкую задержку и высокую конфиденциальность на миллиардах устройств.
LiteRT — это не просто новая технология; это следующее поколение самой распространенной в мире среды выполнения машинного обучения.
Ему доверяют самые важные приложения Google.
Более 100 000 приложений, миллиарды пользователей по всему миру.
Основные моменты LiteRT
Готовность к кроссплатформенному использованию
Выпустите GenAI на волю
Упрощенное аппаратное ускорение
Поддержка нескольких фреймворков
Развертывание через LiteRT
Оптимизируйте рабочий процесс глубокого обучения, от обучения до развертывания на устройстве.
1. Получите модель
Используйте предварительно обученные модели в формате .tflite или преобразуйте модели PyTorch, JAX или TensorFlow в формат .tflite.
2. Оптимизация
Используйте инструментарий оптимизации LiteRT для квантизации ваших моделей после обучения.
3. Беги
Разверните свою модель с помощью LiteRT и выберите оптимальный акселератор для вашего приложения.
Выберите свой путь развития
Используйте LiteRT для развертывания ИИ где угодно — от высокопроизводительных мобильных приложений до устройств IoT с ограниченными ресурсами.
Существующий пользователь TFLite
Переход на LiteRT позволит использовать преимущества повышенной производительности и унифицированных API на разных платформах (Android, Desktop, Web).
BYOM: Приводите своих моделей.
У меня есть модель на PyTorch, и я хочу реализовать в ней визуальное или звуковое сопровождение непосредственно на устройстве.
Внедрение моделей генеративного искусственного интеллекта
Создание сложных чат-ботов для устройств с использованием оптимизированных моделей GenAI с открытым исходным кодом, таких как Gemma или другая подобная модель.
[Продвинутый] Эксперт по моделям
Создание пользовательских моделей или выполнение глубокой оптимизации ЦП/ГП/НПУ для достижения максимальной производительности с учетом специфики оборудования.
Образцы, модели и демонстрационные материалы
Пример приложения LiteRT можно посмотреть на GitHub.
Полные, комплексные примеры приложений.
См. модели genAI
Предварительно обученные, готовые к использованию модели искусственного интеллекта.
Смотрите демонстрации — приложение Google AI Edge Gallery
Галерея, демонстрирующая примеры использования машинного обучения/генерированного искусственного интеллекта на устройствах с помощью LiteRT.
Блоги и объявления
Будьте в курсе последних анонсов, технических обзоров и результатов тестов производительности от команды LiteRT.
LiteRT: универсальная платформа для искусственного интеллекта на устройстве
Единая платформа машинного обучения Google для устройств, разработанная на основе TFLite и предназначенная для высокопроизводительного развертывания.
MediaTek NPU и LiteRT: основа для следующего поколения встроенного искусственного интеллекта.
Расширение поддержки ускорения NPU для чипсетов MediaTek для высокоэффективного искусственного интеллекта.
Раскрытие максимальной производительности на NPU Qualcomm с помощью LiteRT
Раскрытие прорывных возможностей генеративного ИИ на нейронных процессорах Qualcomm.
LiteRT: максимальная производительность, упрощение
Представляем API CompiledModel для автоматического выбора оборудования и асинхронного выполнения.
Встроенная функция GenAI в Chrome, Chromebook Plus и Pixel Watch с LiteRT-LM
Развертывайте языковые модели на носимых устройствах и браузерных платформах с помощью LiteRT-LM.
Google AI Edge: небольшие языковые модели, мультимодальность и вызов функций.
Последние данные о RAG, мультимодальности и вызове функций для языковых моделей на периферии сети.
Присоединяйтесь к сообществу
Сообщество LiteRT на GitHub
Вносите непосредственный вклад в проект и сотрудничайте с основными разработчиками.
Центр обнимающих лиц
Получите доступ к оптимизированным моделям с открытым весом на платформе Hugging Face Hub.