29 أغسطس 2025
InstaLILY: محرّك بحث مؤسسي مستقل مستنِد إلى الذكاء الاصطناعي الوكيل، ومزوّد بتكنولوجيا Gemini

تتطلّب وكلاء الذكاء الاصطناعي في المؤسسات الذين يبرمجون سير العمل المعقّد، مثل مبيعات الشركات إلى الشركات أو الصيانة الصناعية، نماذج تم تدريبها على كميات هائلة من البيانات عالية الجودة والمحدّدة المجال. بالنسبة إلى العديد من الشركات، يشكّل إنشاء هذه البيانات عنق الزجاجة الأساسي، لأنّ التصنيف اليدوي بطيء ومكلف، وقد تفتقر النماذج العامة إلى الدقة اللازمة.
تساعد منصة InstaLILY AI المؤسسية، وهي منصة لوكلاء الذكاء الاصطناعي المستقلين والمتخصصين، الشركات في أتمتة عمليات سير العمل المعقّدة وتنفيذها في مجالات المبيعات والخدمات والعمليات.
بالنسبة إلى أحد عملائهم، PartsTown، كان عليهم إنشاء محرّك بحث في الوقت الفعلي لكي تطابق "وكلاء الذكاء الاصطناعي" على الفور فنيي الصيانة الميدانية مع قطع غيار محدّدة من كتالوج يضم أكثر من خمسة ملايين منتج. وقد تطلّب ذلك طريقة قابلة للتوسّع لإنشاء ملايين التصنيفات العالية الجودة لتدريب النموذج.
لحلّ هذه المشكلة، طوّر فريق InstaLILY AI مسارًا متعدد المراحل لإنشاء بيانات اصطناعية. يستخدم مسار المعالجة بنية المعلّم والطالب، حيث يعمل Gemini 2.5 Pro كنموذج "المعلّم" لإنشاء بيانات تدريب عالية الجودة، ويعمل نموذج Gemma المحسَّن كـ "الطالب" لإتاحة عملية تفعيل قابلة للتوسّع ومنخفضة التكلفة.
صعوبة إنشاء بيانات تدريب متخصّصة على نطاق واسع
إنّ أساس محرّك البحث عن قطع الغيار هو نموذج ملاءمة يربط طلب فني الصيانة (مثل "ضاغط لثلاجة Northland") إلى رقم القطعة المحدّد. تطلّب تدريب هذا النموذج مجموعة بيانات ضخمة من أزواج أجزاء طلبات البحث.
واجهت أداة InstaLILY AI عدة تحديات مع الطرق التقليدية:
- قابلية التوسّع: لم يكن من الممكن تصنيف ملايين أسطر أوامر العمل يدويًا.
- التكلفة والجودة: كان استخدام نماذج أخرى متطورة لتصنيف البيانات أكثر تكلفة بثلاث مرات وأدى إلى انخفاض معدلات الاتفاق بنسبة% 15 مقارنةً بالحل النهائي.
- الأداء: سيكون البحث المباشر المستند إلى نموذج لغوي كبير بطيئًا جدًا، وقد أظهرت الاختبارات الأولية تأخيرًا لمدة دقيقتين، كما أنّه لن يتمكّن من التعامل مع أكثر من 500 طلب بحث في الثانية (QPS) المطلوبة في مرحلة الإنتاج.
كانوا بحاجة إلى نظام يمكنه إنشاء بيانات عالية الجودة بفعالية من حيث التكلفة، ما يؤدي إلى نموذج نهائي سريع ودقيق.
مسار معالجة من ثلاث مراحل باستخدام Gemini وGemma
صمّمت شركة InstaLILY AI مسارًا من ثلاث مراحل يستخدم إمكانات الاستدلال المتقدّمة في Gemini 2.5 Pro لإنشاء تصنيفات عالية الجودة، ثم تحويل هذه المعرفة إلى نماذج أصغر وأكثر فعالية لأغراض الإنتاج.
تعمل سلسلة المعالجة على النحو التالي:
- إنشاء بيانات اصطناعية (نموذج المعلّم): ينشئ Gemini 2.5 Pro تصنيفات ذهبية لمعالجة أزواج أجزاء الطلبات. لتحقيق دقة عالية، تستخدم تكنولوجيا الذكاء الاصطناعي InstaLILY أسلوب الاستدلال المتسلسل المتعدد المنظور (Multi-CoT)، ما يدفع النموذج إلى تحليل الأجزاء من زوايا متعددة، بما في ذلك العلامة التجارية والفئة والمواصفات ومنطق النشاط التجاري المعقّد المتعلق بالتوافق. وقد حقّق هذا النهج نسبة اتفاق بلغت% 94 مع الخبراء البشريين في مجموعة اختبار عمياء.
- تدريب نموذج الطلاب: يتم استخدام التصنيفات العالية الجودة من Gemini 2.5 Pro لضبط Gemma-7B بدقة. استخدمت InstaLILY AI العديد من الأساليب لتحسين نموذج الطالب، بما في ذلك أسلوب Direct Preference Optimization (DPO)، الذي قلّل من النتائج الإيجابية الخاطئة بنسبة %40. أنشأ الفريق أيضًا مجموعة من ثلاثة نماذج معدَّلة من Gemma تصوّت على كل عيّنة، ما أدّى إلى زيادة دقة التصنيف إلى %96.
- العرض في مرحلة الإنتاج: يتم استخلاص المعرفة من نماذج Gemma في نموذج BERT خفيف الوزن (110 مليون مَعلمة) لبيئة الإنتاج النهائية. يحافظ هذا النموذج الأصغر على دقة بنسبة% 89 في مقياس F1 مع عرض الطلبات بمعدّل 600 طلب في الثانية.
"لولا ميزة "سلسلة الأفكار" في النماذج اللغوية الكبيرة التي تساعدنا في إعداد نموذجنا المقطّر، لكُنّا سنضطر إلى تصنيف كمية هائلة من البيانات يدويًا"، هذا ما قاله فريق الذكاء الاصطناعي في InstaLILY. "ساهم Gemini بشكل كبير في تسريع عملية إعداد البيانات، ما أتاح لنا إعادة تخصيص مئات الساعات الهندسية لمهام أكثر أهمية، مثل الضبط الدقيق والتنسيق".
تقليل زمن الانتقال بنسبة% 99.8 والتكاليف بنسبة %98.3
حقّقت بنية المعلّم والطالب تحسينات كبيرة في السرعة والتكلفة والدقة.
حقق النظام النهائي ما يلي:
- تقليل وقت استجابة طلب البحث: من دقيقتَين إلى 0.2 ثانية (تحسُّن بنسبة% 99.8).
- خفض تكلفة العرض: من 0.12 دولار أمريكي إلى 0.002 دولار أمريكي لكل 1,000 طلب بحث (انخفاض بنسبة% 98.3).
- الدقة العالية: درجة F1 تبلغ% 90 تقريبًا على مجموعة بيانات غير معروفة.
تم أيضًا تسريع عملية التطوير. تمكّن الفريق من إنشاء نموذج أولي في 48 ساعة، ومن ثمّ إنشاء مسار جاهز للإنتاج في أربعة أسابيع، وهي عملية يقدّرون أنّها كانت ستستغرق من ثلاثة إلى أربعة أشهر بدون منظومة Gemini وGemma المتكاملة.
يقول أميت شاه، المؤسس والرئيس التنفيذي لشركة InstaLILY: "لقد أتاحت لنا المشاركة في برنامج Google Accelerator اتّباع هذا النهج الكامل". "لقد ساعدنا الدعم الفني المباشر وإتاحة استخدام Gemini وGemma قبل إطلاقهما وأرصدة Cloud السخية في الانتقال من النموذج الأولي إلى مرحلة الإنتاج في غضون أسابيع، وليس أشهر".
التطوير المستقبلي باستخدام التعلّم المتعدّد الوسائط والمستمر
تخطّط InstaLILY AI لتوسيع إمكانات وكلاء الذكاء الاصطناعي من خلال دمج ميزات Gemini المتعددة الوسائط. سيتيح ذلك للفنّيين تحميل صورة للجهاز المكسور للمساعدة في تشخيص المشكلة. ويعملون أيضًا على تطوير خدمة التعلّم النشط المستمر التي تضع علامة على طلبات البحث المباشرة التي تكون فيها الثقة منخفضة، وتوجّهها إلى Gemini لإضافة التعليقات التوضيحية، ثم تعيد تدريب النماذج المستخدَمة في المنتج أسبوعيًا.
يوضّح النجاح الذي حقّقه محرّك بحث InstaLILY AI لوكلاء الذكاء الاصطناعي كيف يمكن لبنية المعلّم والطالب، التي تجمع بين قدرة الاستدلال في Gemini 2.5 Pro وكفاءة نماذج Gemma المضبوطة بدقة، أن تحلّ تحديات إنشاء البيانات المعقّدة وتتيح تطبيقات ذكاء اصطناعي قابلة للتطوير وعالية الأداء.
لبدء إنشاء التطبيقات باستخدام نماذج Gemini وGemma، يمكنك الاطّلاع على مستندات واجهة برمجة التطبيقات.