29 أغسطس 2025
InstaLILY: محرك بحث مؤسسي بالذكاء الاصطناعي الوكيل يستند إلى Gemini

تتطلّب وكلاء الذكاء الاصطناعي في المؤسسات الذين ينفّذون مهام سير العمل المعقّدة تلقائيًا، مثل مبيعات الشركات أو الصيانة الصناعية، نماذج مدربة على كميات هائلة من البيانات العالية الجودة والمحددة المجال. بالنسبة إلى العديد من الشركات، يشكّل إنشاء هذه البيانات عنق الزجاجة الأساسي، لأنّ التصنيف اليدوي بطيء ومكلف، وقد تفتقر النماذج العامة إلى الدقة اللازمة.
تساعد منصة InstaLILY AI المؤسسات في تنفيذ سير العمل المعقّد في مجالات المبيعات والخدمات والعمليات بشكل آلي، وهي منصة مخصّصة لوكلاء الذكاء الاصطناعي المستقلين والمتخصصين.
بالنسبة إلى أحد عملائهم، PartsTown، كان عليهم إنشاء محرّك بحث في الوقت الفعلي لكي تطابق "وكلاء الذكاء الاصطناعي" على الفور فنيي الصيانة الميدانية مع قطع غيار بديلة محدّدة من كتالوج يضم أكثر من خمسة ملايين منتج. وقد تطلّب ذلك طريقة قابلة للتوسّع لإنشاء ملايين التصنيفات العالية الجودة لتدريب النموذج.
لحلّ هذه المشكلة، طوّر فريق InstaLILY AI مسارًا متعدد المراحل لإنشاء بيانات اصطناعية. يستخدم مسار المعالجة بنية المعلّم والطالب، حيث يعمل Gemini 2.5 Pro كنموذج "المعلّم" لإنشاء بيانات تدريب عالية الجودة، ويعمل نموذج Gemma المحسَّن كنموذج "الطالب" لإتاحة نشر المنتج على نطاق واسع وبتكلفة منخفضة.
صعوبة إنشاء بيانات تدريب متخصّصة على نطاق واسع
إنّ أساس محرّك البحث عن قطع الغيار هو نموذج ملاءمة يربط طلب فني الصيانة (مثل "ضاغط لثلاجة Northland") إلى رقم القطعة المحدّد. تطلّب تدريب هذا النموذج مجموعة بيانات ضخمة من أزواج أجزاء الطلبات.
واجهت InstaLILY AI العديد من التحديات عند استخدام الطرق التقليدية:
- قابلية التوسّع: لم يكن من الممكن تصنيف ملايين أسطر أوامر العمل يدويًا.
- التكلفة والجودة: كان استخدام نماذج أخرى متطورة لتصنيف البيانات أكثر تكلفة بثلاث مرات وأدى إلى انخفاض معدلات الاتفاق بنسبة% 15 مقارنةً بالحل النهائي.
- الأداء: سيكون البحث المباشر المستند إلى نموذج لغوي كبير بطيئًا جدًا، وقد أظهرت الاختبارات الأولية تأخيرًا لمدة دقيقتين، كما أنّه لن يتمكّن من التعامل مع أكثر من 500 طلب بحث في الثانية (QPS) المطلوبة في مرحلة الإنتاج.
كانوا بحاجة إلى نظام يمكنه إنشاء بيانات عالية الجودة بفعالية من حيث التكلفة، ما يؤدي إلى نموذج نهائي سريع ودقيق.
مسار معالجة من ثلاث مراحل باستخدام Gemini وGemma
صمّمت شركة InstaLILY AI مسارًا من ثلاث مراحل يستخدم إمكانات Gemini 2.5 Pro المتقدّمة في الاستدلال لإنشاء تصنيفات عالية الجودة، ثم تحويل هذه المعرفة إلى نماذج أصغر وأكثر كفاءة لأغراض الإنتاج.
تعمل سلسلة المعالجة على النحو التالي:
- إنشاء بيانات اصطناعية (نموذج المعلّم): ينشئ Gemini 2.5 Pro تصنيفات عالية الجودة لأزواج أجزاء طلب البحث. لتحقيق دقة عالية، تستخدم أداة الذكاء الاصطناعي InstaLILY أسلوب الاستدلال بسلسلة الأفكار المتعددة (Multi-CoT)، ما يدفع النموذج إلى تحليل الأجزاء من زوايا متعددة، بما في ذلك العلامة التجارية والفئة والمواصفات ومنطق الأنشطة التجارية المعقد لتحقيق التوافق. وقد حقّق هذا النهج نسبة اتفاق بلغت% 94 مع الخبراء البشريين في مجموعة اختبار عمياء.
- تدريب نموذج الطلاب: يتم استخدام التصنيفات العالية الجودة من Gemini 2.5 Pro لضبط Gemma-7B بدقة. استخدمت InstaLILY AI العديد من الأساليب لتحسين نموذج الطالب، بما في ذلك أسلوب Direct Preference Optimization (DPO)، الذي قلّل من النتائج الإيجابية الخاطئة بنسبة %40. أنشأ الفريق أيضًا مجموعة من ثلاثة نماذج مختلفة من Gemma تم ضبطها بدقة، وتصوّت هذه النماذج على كل عيّنة، ما أدّى إلى زيادة دقة التصنيف إلى %96.
- العرض في مرحلة الإنتاج: يتم استخلاص المعرفة من نماذج Gemma في نموذج BERT خفيف (110 مليون مَعلمة) لبيئة الإنتاج النهائية. يحافظ هذا النموذج الأصغر على دقة بنسبة% 89 في مقياس F1 مع عرض الطلبات بمعدّل 600 طلب في الثانية.
"لولا استخدام ميزة "سلسلة الأفكار" في النماذج اللغوية الكبيرة لتصنيف البيانات من أجل إعداد نموذجنا المقطّر، لكُنّا سنصنّف يدويًا كمية هائلة من البيانات"، هذا ما قاله فريق الذكاء الاصطناعي في InstaLILY. "لقد ساهم Gemini بشكل كبير في تسريع عملية إعداد البيانات، ما أتاح لنا إعادة تخصيص مئات الساعات الهندسية لمهام أكثر أهمية، مثل الضبط الدقيق والتنسيق".
تقليل زمن الانتقال بنسبة% 99.8 والتكاليف بنسبة %98.3
حقّقت بنية المعلّم والطالب تحسينات كبيرة في السرعة والتكلفة والدقة.
حقق النظام النهائي ما يلي:
- تقليل وقت استجابة طلب البحث: من دقيقتَين إلى 0.2 ثانية (تحسُّن بنسبة% 99.8).
- خفض تكلفة العرض: من 0.12 دولار أمريكي إلى 0.002 دولار أمريكي لكل 1,000 طلب بحث (انخفاض بنسبة% 98.3).
- الدقة العالية: درجة F1 تبلغ% 90 تقريبًا على مجموعة بيانات غير معروفة.
تم أيضًا تسريع عملية التطوير. تمكّن الفريق من إنشاء نموذج أولي في 48 ساعة، ومن ثمّ إنشاء مسار جاهز للإنتاج في أربعة أسابيع، وهي عملية يقدّرون أنّها كانت ستستغرق من ثلاثة إلى أربعة أشهر بدون منظومة Gemini وGemma المتكاملة.
يقول أميت شاه، المؤسس والرئيس التنفيذي لشركة InstaLILY: "لقد أتاحت لنا المشاركة في برنامج Google Accelerator اتّباع هذا النهج الكامل". "لقد ساعدنا الدعم الفني المباشر وإتاحة استخدام Gemini وGemma قبل إطلاقهما ورصيد Cloud السخي في الانتقال من النموذج الأولي إلى مرحلة الإنتاج في غضون أسابيع، وليس أشهر".
التطوير المستقبلي باستخدام التعلّم المتعدّد الوسائط والمستمر
تخطّط InstaLILY AI لتوسيع إمكانات وكلاء الذكاء الاصطناعي من خلال دمج ميزات Gemini المتعددة الوسائط. سيتيح ذلك للفنّيين تحميل صورة للجهاز المكسور للمساعدة في تشخيص المشكلة. ويعملون أيضًا على تطوير خدمة تعلّم نشط مستمر تحدّد طلبات البحث المباشرة التي تكون فيها الثقة منخفضة، وتوجّهها إلى Gemini لإضافة التعليقات التوضيحية، ثم تعيد تدريب النماذج المستخدَمة أسبوعيًا.
يوضّح نجاح محرك بحث InstaLILY AI الخاص بـ "وكلاء الذكاء الاصطناعي" كيف يمكن لبنية المعلم والطالب، التي تجمع بين قدرة Gemini 2.5 Pro على الاستدلال وكفاءة نماذج Gemma المضبوطة بدقة، أن تحلّ تحديات معقّدة في إنشاء البيانات وتتيح تطبيقات ذكاء اصطناعي عالية الأداء وقابلة للتوسّع.
لبدء إنشاء التطبيقات باستخدام نماذج Gemini وGemma، يُرجى الاطّلاع على مستندات واجهة برمجة التطبيقات.