Запускайте LLM-модули на устройстве с помощью LiteRT-LM.
Готовая к использованию в производственных условиях платформа вывода с открытым исходным кодом, разработанная для обеспечения высокопроизводительного кроссплатформенного развертывания LLM на периферийных устройствах.
Прожектор
Встроенная функция GenAI в Chrome, Chromebook Plus и Pixel Watch с LiteRT-LM.
Почему именно LiteRT-LM?
Кросс-платформенный
Внедряйте LLM-приложения на платформах Android, iOS, Web и Desktop.
Аппаратное ускорение
Максимальная производительность достигается за счет ускорения с помощью графического и нейронного процессоров.
Широкие возможности GenAI
Поддержка популярных LLM-модулей, а также мультимодальности (зрение, звук) и использования инструментов.
Начать строительство
Блоги и объявления
Встроенная функция GenAI в Chrome, Chromebook Plus и Pixel Watch
Развертывайте языковые модели на носимых устройствах и браузерных платформах с использованием LiteRT-LM в масштабе предприятия.
Вызов функций на устройстве в Google AI Edge Gallery
Узнайте, как точно настроить FunctionGemma и включить возможности вызова функций, предоставляемые API-интерфейсами LiteRT-LM Tool Use.
Google AI Edge: небольшие языковые модели, мультимодальность и вызов функций.
Последние данные о RAG, мультимодальности и вызове функций для языковых моделей на периферии сети.
Присоединяйтесь к сообществу
LiteRT-LM на GitHub
Внесите свой вклад в проект с открытым исходным кодом, сообщайте о проблемах и смотрите примеры.
Обнимающее лицо
Скачайте предварительно преобразованные модели и присоединяйтесь к обсуждению.