LiteRT-LM Python API

تتوفّر واجهة برمجة تطبيقات Python الخاصة بـ LiteRT-LM لأنظمة التشغيل Linux وmacOS (سيتم توفيرها لنظام التشغيل Windows قريبًا). تتوفّر ميزات مثل الوسائط المتعدّدة واستخدام الأدوات وتسريع وحدة معالجة الرسومات.

مقدمة

إليك نموذجًا لتطبيق محادثة على الجهاز الطرفي تم إنشاؤه باستخدام Python API:

import litert_lm

litert_lm.set_min_log_severity(litert_lm.LogSeverity.ERROR) # Hide log for TUI app

with litert_lm.Engine("path/to/model.litertlm") as engine:
  with engine.create_conversation() as conversation:
    while True:
      user_input = input("\n>>> ")
      for chunk in conversation.send_message_async(user_input):
        print(chunk["content"][0]["text"], end="", flush=True)

البدء

تتوفّر LiteRT-LM كمكتبة Python. يمكنك تثبيت الإصدار الليلي من PyPI:

# Using pip
pip install litert-lm-api-nightly

# Using uv
uv pip install litert-lm-api-nightly

تهيئة المحرّك

Engine هي نقطة الدخول إلى واجهة برمجة التطبيقات. يتولّى تحميل النماذج وإدارة الموارد. يضمن استخدامه كأداة لإدارة السياق (مع عبارة with) إطلاق الموارد الأصلية على الفور.

ملاحظة: قد يستغرق تحميل النموذج عدة ثوانٍ عند بدء تشغيل المحرّك.

import litert_lm

# Initialize with the model path and optionally specify the backend.
# backend can be Backend.CPU (default) or Backend.GPU.
with litert_lm.Engine(
    "path/to/your/model.litertlm",
    backend=litert_lm.Backend.GPU,
    # Optional: Pick a writable dir for caching compiled artifacts.
    # cache_dir="/tmp/litert-lm-cache"
) as engine:
    # ... Use the engine to create a conversation ...
    pass

إنشاء محادثة

يدير Conversation حالة وتاريخ تفاعلك مع النموذج.

# Optional: Configure system instruction and initial messages
messages = [
    {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
]

# Create the conversation
with engine.create_conversation(messages=messages) as conversation:
    # ... Interact with the conversation ...
    pass

إرسال الرسائل

يمكنك إرسال الرسائل بشكل متزامن أو غير متزامن (بث مباشر).

مثال على التزامن:

# Simple string input
response = conversation.send_message("What is the capital of France?")
print(response["content"][0]["text"])

# Or with full message structure
# response = conversation.send_message({"role": "user", "content": "..."})

مثال على البث غير المتزامن:

# sendMessageAsync returns an iterator of response chunks
stream = conversation.send_message_async("Tell me a long story.")
for chunk in stream:
    # Chunks are dictionaries containing pieces of the response
    for item in chunk.get("content", []):
      if item.get("type") == "text":
        print(item["text"], end="", flush=True)
print()

🔴 ميزة جديدة: توقّع رموز مميّزة متعددة (MTP)

تُعدّ ميزة "توقّع الرموز المتعددة" (MTP) تحسينًا للأداء يؤدي إلى تسريع عمليات فك الترميز بشكل كبير. يُنصح باستخدام MTP بشكل عام لجميع المهام على الخلفيات التي تستخدم وحدات معالجة الرسومات.

لاستخدام MTP، فعِّل ميزة "فك الترميز التخميني" عند تهيئة المحرّك.

import litert_lm

# Enable MTP by setting enable_speculative_decoding=True
with litert_lm.Engine(
    "path/to/your/model.litertlm",
    backend=litert_lm.Backend.GPU,
    enable_speculative_decoding=True,
) as engine:
    with engine.create_conversation() as conversation:
        response = conversation.send_message("What is the capital of France?")
        print(response["content"][0]["text"])

تعدُّد الوسائط

# Initialize with vision and/or audio backends if needed
with litert_lm.Engine(
    "path/to/multimodal_model.litertlm",
    audio_backend=litert_lm.Backend.CPU,
    vision_backend=litert_lm.Backend.GPU,
) as engine:
    with engine.create_conversation() as conversation:
        user_message = {
            "role": "user",
            "content": [
                {"type": "audio", "path": "/path/to/audio.wav"},
                {"type": "text", "text": "Describe this audio."},
            ],
        }
        response = conversation.send_message(user_message)
        print(response["content"][0]["text"])

تحديد الأدوات واستخدامها

يمكنك تحديد دوال Python كأدوات يمكن للنموذج استدعاؤها تلقائيًا.

def add_numbers(a: float, b: float) -> float:
    """Adds two numbers.

    Args:
        a: The first number.
        b: The second number.
    """
    return a + b

# Register the tool in the conversation
tools = [add_numbers]
with engine.create_conversation(tools=tools) as conversation:
    # The model will call add_numbers automatically if it needs to sum values
    response = conversation.send_message("What is 123 + 456?")
    print(response["content"][0]["text"])

تستخدم LiteRT-LM السلسلة الوصفية للدالة وتلميحات الأنواع لإنشاء مخطط الأداة للنموذج.