تشغيل النماذج اللغوية الكبيرة على الجهاز باستخدام LiteRT-LM
إطار عمل استنتاج مفتوح المصدر وجاهز للاستخدام في مرحلة الإنتاج ومصمَّم لتقديم عمليات نشر نماذج لغوية كبيرة (LLM) عالية الأداء ومتوافقة مع عدّة منصات على الأجهزة الطرفية
تسليط الضوء
الذكاء الاصطناعي التوليدي على الجهاز فقط في Chrome وChromebook Plus وPixel Watch باستخدام LiteRT-LM
لماذا LiteRT-LM؟
عبر أنظمة أساسية متعددة
نشر نماذج اللغات الكبيرة على أجهزة Android وiOS والويب وأجهزة الكمبيوتر
تسريع الأجهزة
تحسين الأداء إلى أقصى حدّ باستخدام تسريع وحدة معالجة الرسومات (GPU) ووحدة المعالجة العصبية (NPU)
إمكانات الذكاء الاصطناعي التوليدي الواسعة
إتاحة استخدام النماذج اللغوية الكبيرة الشائعة بالإضافة إلى إمكانية استخدام وسائط متعددة (الصور والفيديوهات والصوت) والأدوات
بدء التطوير
Python
واجهات برمجة تطبيقات Python مع ميزة "تسريع الأجهزة" على أنظمة التشغيل Linux وMacOS وWindows وRaspberry Pi
Android
تطبيقات Android الأصلية وأدوات الكمبيوتر المكتبي المستندة إلى JVM
iOS
تكامل أصلي مع نظامَي التشغيل iOS وmacOS مع توفير دعم متخصص لواجهة برمجة التطبيقات Metal (ستتوفّر واجهات برمجة تطبيقات Swift قريبًا)
C++
x-platform C++ APIs .
المدوّنات والإشعارات
الذكاء الاصطناعي التوليدي على الجهاز فقط في Chrome وChromebook Plus وPixel Watch
يمكنك نشر النماذج اللغوية على الأجهزة القابلة للارتداء والمنصات المستندة إلى المتصفّح باستخدام LiteRT-LM على نطاق واسع.
استدعاء الدوال على الجهاز فقط في معرض Google AI Edge
تعرَّف على كيفية ضبط نموذج FunctionGemma بدقة وتفعيل إمكانات استدعاء الدوال المستندة إلى واجهات برمجة التطبيقات الخاصة بأداة LiteRT-LM.
النماذج اللغوية الصغيرة، والوسائط المتعددة، واستدعاء الدوال في Google AI Edge
أحدث الإحصاءات حول التوليد المعزّز بالاسترجاع (RAG) والوسائط المتعددة واستدعاء الدوال في النماذج اللغوية التي تعمل على الأجهزة الطرفية
الانضمام إلى المنتدى
LiteRT-LM على GitHub
يمكنك المساهمة في المشروع المفتوح المصدر والإبلاغ عن المشاكل والاطّلاع على الأمثلة.
وجه يحضن
نزِّل النماذج المحوَّلة مسبقًا وانضم إلى المناقشة.