استنادًا إلى الأساس الذي تم اختباره في TensorFlow Lite
إنّ LiteRT ليس مجرد إصدار جديد، بل هو الجيل التالي من وقت تشغيل تعلُّم الآلة الأكثر استخدامًا على نطاق واسع في العالم. وهي تتيح تشغيل التطبيقات التي تستخدمها كل يوم، وتوفّر معدل نقل بيانات منخفضًا ومستوى عاليًا من الخصوصية على مليارات الأجهزة.
موثوق بها من قِبل أهم تطبيقات Google
أكثر من 100 ألف تطبيق ومليارات المستخدمين حول العالم
أبرز ميزات LiteRT
جاهز للاستخدام على عدّة منصات
إطلاق العنان للذكاء الاصطناعي التوليدي
تبسيط ميزة "تسريع الأجهزة"
التوافق مع أُطر عمل متعددة
النشر من خلال LiteRT
يمكنك تبسيط سير عمل التعلّم العميق من التدريب إلى النشر على الجهاز فقط.
1.الحصول على نموذج
استخدِم نماذج .tflite المدرَّبة مسبقًا أو حوِّل نماذج PyTorch أو JAX أو TensorFlow إلى .tflite.
2.التحسين
استخدِم مجموعة أدوات تحسين LiteRT لتحديد كمية النماذج بعد التدريب.
3.Run
يمكنك نشر نموذجك باستخدام LiteRT واختيار أداة التسريع الأنسب لتطبيقك.
اختيار مسار التطوير
استخدِم LiteRT لنشر الذكاء الاصطناعي في أي مكان، بدءًا من تطبيقات الأجهزة الجوّالة العالية الأداء إلى أجهزة إنترنت الأشياء ذات الموارد المحدودة.
مستخدم TFLite الحالي
الانتقال إلى LiteRT للاستفادة من الأداء المحسّن وواجهات برمجة التطبيقات الموحّدة على جميع الأنظمة الأساسية (Android وDesktop وWeb)
BYOM : Bring your own Models
لديك نموذج PyTorch وتريد تنفيذ تجارب متعلقة بالرؤية أو الصوت على الجهاز فقط.
نشر نماذج الذكاء الاصطناعي التوليدي
إنشاء برامج دردشة متطورة على الجهاز فقط باستخدام نماذج الذكاء الاصطناعي التوليدي المحسّنة والمتاحة للجميع، مثل Gemma أو نموذج آخر متاح للجميع.
[متقدّم] خبير في النماذج
إنشاء نماذج مخصّصة أو إجراء تحسينات متعمّقة خاصة بوحدة المعالجة المركزية/وحدة معالجة الرسومات/وحدة المعالجة العصبية لتحقيق أفضل أداء
العيّنات والنماذج والعروض التوضيحية
الاطّلاع على نموذج تطبيق LiteRT على GitHub
تطبيقات نموذجية كاملة وشاملة
عرض نماذج الذكاء الاصطناعي التوليدي
نماذج الذكاء الاصطناعي التوليدي المدرَّبة مسبقًا والجاهزة للاستخدام
مشاهدة العروض التوضيحية - تطبيق "معرض Google AI Edge"
معرض يعرض حالات استخدام تعلُّم الآلة/الذكاء الاصطناعي التوليدي على الجهاز فقط باستخدام LiteRT
المدوّنات والإشعارات
يمكنك البقاء على اطّلاع على آخر الإشعارات والدراسات الفنية المتخصصة ومقاييس الأداء من فريق LiteRT.
LiteRT: إطار العمل العام للذكاء الاصطناعي على الأجهزة فقط
إطار عمل موحَّد لتعلُّم الآلة على الأجهزة فقط من Google، وهو يتطوّر من TFLite ليتيح نشرًا عالي الأداء.
وحدة المعالجة العصبية (NPU) من MediaTek وLiteRT: تعزيز الجيل التالي من الذكاء الاصطناعي على الأجهزة فقط
توسيع نطاق دعم تسريع وحدة المعالجة العصبية ليشمل شرائح MediaTek من أجل توفير ذكاء اصطناعي عالي الكفاءة
تحقيق الأداء الأفضل على وحدة المعالجة العصبية (NPU) من Qualcomm باستخدام LiteRT
تحقيق أداء مذهل للذكاء الاصطناعي التوليدي على وحدات المعالجة العصبية من Qualcomm
LiteRT: أداء أفضل، تبسيط أكبر
نقدّم لك CompiledModel API لاختيار الأجهزة آليًا وتنفيذ المهام بشكل غير متزامن.
الذكاء الاصطناعي التوليدي على الجهاز فقط في Chrome وChromebook Plus وPixel Watch باستخدام LiteRT-LM
يمكنك نشر نماذج لغوية على الأجهزة القابلة للارتداء والمنصات المستندة إلى المتصفح باستخدام LiteRT-LM.
النماذج اللغوية الصغيرة، والوسائط المتعددة، واستدعاء الدوال في Google AI Edge
أحدث المعلومات حول التوليد المعزّز بالاسترجاع (RAG) والوسائط المتعددة واستدعاء الدوال في النماذج اللغوية التي تعمل على الأجهزة
الانضمام إلى المنتدى
منتدى LiteRT على GitHub
يمكنك المساهمة مباشرةً في المشروع والتعاون مع المطوّرين الأساسيين.
Hugging Face Hub
يمكنك الوصول إلى نماذج مفتوحة المصدر محسّنة على Hugging Face Hub.