Interfejs wiersza poleceń (CLI) umożliwia natychmiastowe testowanie modeli – bez konieczności pisania kodu.
Obsługiwane platformy:
- Linux
- macOS
- Windows (za pomocą WSL)
- Raspberry Pi
Instalacja
Metoda 1. uv (zalecana)
Instaluje litert-lm jako plik binarny w całym systemie. Wymaga parametru uv.
uv tool install litert-lm-nightly
Metoda 2: pip
Standardowa instalacja w środowisku wirtualnym.
python3 -m venv .venv
source .venv/bin/activate
pip install litert-lm-nightly
Czat
Pobierz model z HuggingFace i uruchom go:
litert-lm run \
--from-huggingface-repo=google/gemma-3n-E2B-it-litert-lm \
gemma-3n-E2B-it-int4 \
--prompt="What is the capital of France?"
Wywoływanie funkcji / narzędzia
Możesz uruchamiać narzędzia z ustawieniami wstępnymi. Utwórz preset.py:
import datetime
import base64
def get_current_time() -> str:
"""Returns the current date and time."""
return datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S")
system_instruction = "You are a helpful assistant with access to tools."
tools = [get_current_time]
Uruchom z ustawieniami wstępnymi:
litert-lm run \
--from-huggingface-repo=google/gemma-3n-E2B-it-litert-lm \
gemma-3n-E2B-it-int4 \
--preset=preset.py
Przykładowe prompty i interaktywne dane wyjściowe:
> what will the time be in two hours?
[tool_call] {"arguments": {}, "name": "get_current_time"}
[tool_response] {"name": "get_current_time", "response": "2026-03-25 21:54:07"}
The current time is 2026-03-25 21:54:07.
In two hours, it will be **2026-03-25 23:54:07**.
Co się tutaj dzieje?
Gdy zadajesz pytanie, które wymaga informacji zewnętrznych (np. aktualnej godziny), model rozpoznaje, że musi wywołać narzędzie.
- Model wysyła
tool_call: model wysyła żądanie w formacie JSON, aby wywołać funkcjęget_current_time. - CLI Executes Tool: interfejs wiersza poleceń LiteRT-LM przechwytuje to wywołanie i wykonuje odpowiednią funkcję Pythona zdefiniowaną w pliku
preset.py. - Interfejs wiersza poleceń wysyła
tool_response: interfejs wiersza poleceń wysyła wynik z powrotem do modelu. - Model generuje ostateczną odpowiedź: model wykorzystuje odpowiedź narzędzia do obliczenia i wygenerowania ostatecznej odpowiedzi dla użytkownika.
Ta pętla „wywoływania funkcji” odbywa się automatycznie w interfejsie wiersza poleceń, co pozwala rozszerzać lokalne modele LLM o funkcje Pythona bez pisania złożonego kodu orkiestracji.
Te same funkcje są dostępne w interfejsach API Python, C++ i Kotlin.