Готовая к использованию в производственных условиях платформа вывода с открытым исходным кодом, разработанная для обеспечения высокопроизводительного кроссплатформенного развертывания LLM на периферийных устройствах.

Прожектор

Примените самые современные агентские навыки на самом краю пропасти с помощью Gemma 4.

Почему именно LiteRT-LM?

Внедряйте LLM-приложения на платформах Android, iOS, Web и Desktop.
Максимальная производительность достигается за счет ускорения с помощью графического и нейронного процессоров.
Поддержка популярных LLM-модулей, а также мультимодальности (зрение, звук) и использования инструментов.

Начать строительство

API Python с аппаратным ускорением на Linux, MacOS, Windows и Raspberry Pi.
Нативные приложения для Android и настольные инструменты на основе JVM.
Интеграция с iOS и macOS с поддержкой Metal (API Swift появятся в ближайшее время).
кроссплатформенные API на C++.

Присоединяйтесь к сообществу

Внесите свой вклад в проект с открытым исходным кодом, сообщайте о проблемах и смотрите примеры.
Скачайте предварительно конвертированные модели (Джемма, Квен и другие) и присоединяйтесь к обсуждению.

Блоги и объявления

Разверните Gemma 4 в приложении и на более широком спектре устройств с превосходной производительностью и охватом, используя LiteRT-LM.
Развертывайте языковые модели на носимых устройствах и браузерных платформах с использованием LiteRT-LM в масштабе предприятия.
Узнайте, как точно настроить FunctionGemma и включить возможности вызова функций, предоставляемые API-интерфейсами LiteRT-LM Tool Use.
Последние данные о RAG, мультимодальности и вызове функций для языковых моделей на периферии сети.