Интерфейс командной строки (CLI) позволяет тестировать модели немедленно — без написания кода.
Поддерживаемые платформы:
- Linux
- macOS
- Windows (через WSL)
- Raspberry Pi
Установка
Метод 1: uv (рекомендуется)
Устанавливает litert-lm как системный исполняемый файл. Требует uv .
uv tool install litert-lm-nightly
Метод 2: pip
Стандартная установка в виртуальной среде.
python3 -m venv .venv
source .venv/bin/activate
pip install litert-lm-nightly
Чат
Скачайте модель с сайта HuggingFace и запустите её:
litert-lm run \
--from-huggingface-repo=google/gemma-3n-E2B-it-litert-lm \
gemma-3n-E2B-it-int4 \
--prompt="What is the capital of France?"
Вызов функций / Инструменты
Вы можете запускать инструменты с предустановками. Создайте файл preset.py :
import datetime
import base64
def get_current_time() -> str:
"""Returns the current date and time."""
return datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
system_instruction = "You are a helpful assistant with access to tools."
tools = [get_current_time]
Запуск с предустановленными настройками:
litert-lm run \
--from-huggingface-repo=google/gemma-3n-E2B-it-litert-lm \
gemma-3n-E2B-it-int4 \
--preset=preset.py
Примеры подсказок и интерактивного вывода:
> what will the time be in two hours?
[tool_call] {"arguments": {}, "name": "get_current_time"}
[tool_response] {"name": "get_current_time", "response": "2026-03-25 21:54:07"}
The current time is 2026-03-25 21:54:07.
In two hours, it will be **2026-03-25 23:54:07**.
Что здесь происходит?
Когда вы задаете вопрос, требующий внешней информации (например, текущего времени), модель понимает, что ей необходимо обратиться к инструменту.
- Модель выдает вызов
tool_call: модель отправляет JSON-запрос для вызова функцииget_current_time. - Инструмент выполнения командной строки : CLI LiteRT-LM перехватывает этот вызов и выполняет соответствующую функцию Python, определенную в вашем
preset.py. - CLI отправляет
tool_response: CLI отправляет результат обратно в модель. - Модель генерирует окончательный ответ : Модель использует ответ инструмента для вычисления и генерации окончательного ответа для пользователя.
Этот цикл "вызова функций" происходит автоматически в интерфейсе командной строки, что позволяет дополнять локальные LLM-модули возможностями Python без написания сложного кода оркестрации.
Аналогичные возможности доступны через API на Python , C++ и Kotlin .