API Python LiteRT-LM

L'API Python de LiteRT-LM pour Linux et macOS (la compatibilité avec Windows est à venir). Des fonctionnalités telles que la multimodalité et l'utilisation d'outils sont prises en charge, tandis que l'accélération GPU sera bientôt disponible.

Introduction

Voici un exemple d'application de chat pour terminal créée avec l'API Python :

import litert_lm

litert_lm.set_min_log_severity(litert_lm.LogSeverity.ERROR) # Hide log for TUI app

with litert_lm.Engine("path/to/model.litertlm") as engine:
  with engine.create_conversation() as conversation:
    while True:
      user_input = input("\n>>> ")
      for chunk in conversation.send_message_async(user_input):
        print(chunk["content"][0]["text"], end="", flush=True)

Premiers pas

LiteRT-LM est disponible en tant que bibliothèque Python. Vous pouvez installer la version Nightly à partir de PyPI :

# Using pip
pip install litert-lm-api-nightly

# Using uv
uv pip install litert-lm-api-nightly

1. Initialiser le moteur

Engine est le point d'entrée de l'API. Il gère le chargement des modèles et la gestion des ressources. L'utiliser comme gestionnaire de contexte (avec l'instruction with) garantit que les ressources natives sont libérées rapidement.

Remarque : L'initialisation du moteur peut prendre plusieurs secondes pour charger le modèle.

import litert_lm

# Initialize with the model path and optionally specify the backend.
# backend can be Backend.CPU (default). GPU support is upcoming.
with litert_lm.Engine(
    "path/to/your/model.litertlm",
    backend=litert_lm.Backend.CPU,
    # Optional: Pick a writable dir for caching compiled artifacts.
    # cache_dir="/tmp/litert-lm-cache"
) as engine:
    # ... Use the engine to create a conversation ...
    pass

2. Créer une conversation

Un Conversation gère l'état et l'historique de votre interaction avec le modèle.

# Optional: Configure system instruction and initial messages
messages = [
    {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
]

# Create the conversation
with engine.create_conversation(messages=messages) as conversation:
    # ... Interact with the conversation ...
    pass

3. Envoyer des messages

Vous pouvez envoyer des messages de manière synchrone ou asynchrone (streaming).

Exemple synchrone :

# Simple string input
response = conversation.send_message("What is the capital of France?")
print(response["content"][0]["text"])

# Or with full message structure
# response = conversation.send_message({"role": "user", "content": "..."})

Exemple asynchrone (streaming) :

# sendMessageAsync returns an iterator of response chunks
stream = conversation.send_message_async("Tell me a long story.")
for chunk in stream:
    # Chunks are dictionaries containing pieces of the response
    for item in chunk.get("content", []):
      if item.get("type") == "text":
        print(item["text"], end="", flush=True)
print()

4. Multimodalité

# Initialize with vision and/or audio backends if needed
with litert_lm.Engine(
    "path/to/multimodal_model.litertlm",
    audio_backend=litert_lm.Backend.CPU,
    # vision_backend=litert_lm.Backend.CPU, (GPU support is upcoming)
) as engine:
    with engine.create_conversation() as conversation:
        user_message = {
            "role": "user",
            "content": [
                {"type": "audio", "path": "/path/to/audio.wav"},
                {"type": "text", "text": "Describe this audio."},
            ],
        }
        response = conversation.send_message(user_message)
        print(response["content"][0]["text"])

5. Définir et utiliser des outils

Vous pouvez définir des fonctions Python comme des outils que le modèle peut appeler automatiquement.

def add_numbers(a: float, b: float) -> float:
    """Adds two numbers.

    Args:
        a: The first number.
        b: The second number.
    """
    return a + b

# Register the tool in the conversation
tools = [add_numbers]
with engine.create_conversation(tools=tools) as conversation:
    # The model will call add_numbers automatically if it needs to sum values
    response = conversation.send_message("What is 123 + 456?")
    print(response["content"][0]["text"])

LiteRT-LM utilise la docstring et les indications de type de la fonction pour générer le schéma d'outil pour le modèle.