LiteRT-LM Python API

Python API ของ LiteRT-LM สำหรับ Linux และ macOS (จะรองรับ Windows ในเร็วๆ นี้) รองรับฟีเจอร์ต่างๆ เช่น มัลติโมดัล และการใช้เครื่องมือ ส่วนการเร่งความเร็วด้วย GPU จะพร้อมใช้งานในเร็วๆ นี้

บทนำ

นี่คือตัวอย่างแอปแชทในเทอร์มินัลที่สร้างด้วย Python API

import litert_lm

litert_lm.set_min_log_severity(litert_lm.LogSeverity.ERROR) # Hide log for TUI app

with litert_lm.Engine("path/to/model.litertlm") as engine:
  with engine.create_conversation() as conversation:
    while True:
      user_input = input("\n>>> ")
      for chunk in conversation.send_message_async(user_input):
        print(chunk["content"][0]["text"], end="", flush=True)

เริ่มต้นใช้งาน

LiteRT-LM พร้อมให้บริการในรูปแบบไลบรารี Python โดยคุณสามารถติดตั้งเวอร์ชัน nightly ได้จาก PyPI ดังนี้

# Using pip
pip install litert-lm-api-nightly

# Using uv
uv pip install litert-lm-api-nightly

1. เริ่มต้นใช้งาน Engine

Engine คือจุดแรกเข้าสู่ API ซึ่งจะจัดการการโหลดโมเดลและการจัดการทรัพยากร การใช้ `Engine` เป็นตัวจัดการบริบท (ด้วยคำสั่ง with) จะช่วยให้มั่นใจได้ว่าระบบจะปล่อยทรัพยากรเนทีฟทันที

หมายเหตุ: การเริ่มต้นใช้งาน Engine อาจใช้เวลาหลายวินาทีในการโหลดโมเดล

import litert_lm

# Initialize with the model path and optionally specify the backend.
# backend can be Backend.CPU (default). GPU support is upcoming.
with litert_lm.Engine(
    "path/to/your/model.litertlm",
    backend=litert_lm.Backend.CPU,
    # Optional: Pick a writable dir for caching compiled artifacts.
    # cache_dir="/tmp/litert-lm-cache"
) as engine:
    # ... Use the engine to create a conversation ...
    pass

2. สร้างการสนทนา

Conversation จะจัดการสถานะและประวัติการโต้ตอบของคุณกับโมเดล

# Optional: Configure system instruction and initial messages
messages = [
    {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
]

# Create the conversation
with engine.create_conversation(messages=messages) as conversation:
    # ... Interact with the conversation ...
    pass

3. การส่งข้อความ

คุณสามารถส่งข้อความแบบซิงโครนัสหรืออะซิงโครนัส (สตรีมมิง)

ตัวอย่างแบบซิงโครนัส:

# Simple string input
response = conversation.send_message("What is the capital of France?")
print(response["content"][0]["text"])

# Or with full message structure
# response = conversation.send_message({"role": "user", "content": "..."})

ตัวอย่างแบบอะซิงโครนัส (สตรีมมิง):

# sendMessageAsync returns an iterator of response chunks
stream = conversation.send_message_async("Tell me a long story.")
for chunk in stream:
    # Chunks are dictionaries containing pieces of the response
    for item in chunk.get("content", []):
      if item.get("type") == "text":
        print(item["text"], end="", flush=True)
print()

4. มัลติโมดัล

# Initialize with vision and/or audio backends if needed
with litert_lm.Engine(
    "path/to/multimodal_model.litertlm",
    audio_backend=litert_lm.Backend.CPU,
    # vision_backend=litert_lm.Backend.CPU, (GPU support is upcoming)
) as engine:
    with engine.create_conversation() as conversation:
        user_message = {
            "role": "user",
            "content": [
                {"type": "audio", "path": "/path/to/audio.wav"},
                {"type": "text", "text": "Describe this audio."},
            ],
        }
        response = conversation.send_message(user_message)
        print(response["content"][0]["text"])

5. การกำหนดและการใช้เครื่องมือ

คุณสามารถกำหนดฟังก์ชัน Python เป็นเครื่องมือที่โมเดลเรียกใช้ได้โดยอัตโนมัติ

def add_numbers(a: float, b: float) -> float:
    """Adds two numbers.

    Args:
        a: The first number.
        b: The second number.
    """
    return a + b

# Register the tool in the conversation
tools = [add_numbers]
with engine.create_conversation(tools=tools) as conversation:
    # The model will call add_numbers automatically if it needs to sum values
    response = conversation.send_message("What is 123 + 456?")
    print(response["content"][0]["text"])

LiteRT-LM จะใช้ docstring และคำแนะนำประเภทของฟังก์ชันเพื่อสร้างสคีมาเครื่องมือสำหรับโมเดล