29 أغسطس 2025
InstaLILY: محرّك بحث مؤسسي بالذكاء الاصطناعي الوكيل يستند إلى Gemini

تتطلّب وكلاء الذكاء الاصطناعي في المؤسسات الذين يعملون على أتمتة مهام سير العمل المعقّدة، مثل مبيعات الشركات إلى الشركات أو الصيانة الصناعية، نماذج تم تدريبها على كميات هائلة من البيانات عالية الجودة والمحدّدة المجال. بالنسبة إلى العديد من الشركات، يشكّل إنشاء هذه البيانات عنق الزجاجة الأساسي، لأنّ التصنيف اليدوي بطيء ومكلف، وقد تفتقر النماذج العامة إلى الدقة اللازمة.
تساعد منصة InstaLILY AI المؤسسية، وهي منصة لوكلاء الذكاء الاصطناعي المستقلين والمتخصصين، الشركات في أتمتة عمليات سير العمل المعقّدة وتنفيذها في مجالات المبيعات والخدمات والعمليات.
بالنسبة إلى أحد عملائهم، PartsTown، كان عليهم إنشاء محرّك بحث في الوقت الفعلي لكي تطابق "وكلاء الذكاء الاصطناعي" على الفور فنيي الصيانة الميدانية مع قطع غيار بديلة محدّدة من كتالوج يضم أكثر من خمسة ملايين منتج. وقد تطلّب ذلك طريقة قابلة للتوسّع لإنشاء ملايين التصنيفات العالية الجودة لتدريب النموذج.
لحلّ هذه المشكلة، طوّر فريق InstaLILY AI مسارًا متعدد المراحل لإنشاء بيانات اصطناعية. يستخدم مسار المعالجة بنية المعلّم والطالب، حيث يعمل Gemini 2.5 Pro كنموذج "المعلّم" لإنشاء بيانات تدريب عالية الجودة، ويعمل نموذج Gemma المحسَّن كنموذج "الطالب" لإتاحة عملية نشر قابلة للتوسّع ومنخفضة التكلفة.
صعوبة إنشاء بيانات تدريب متخصّصة على نطاق واسع
إنّ أساس محرّك البحث عن قطع الغيار هو نموذج ملاءمة يربط طلب فني الصيانة (مثل "ضاغط لثلاجة Northland") إلى رقم القطعة المحدّد. تطلّب تدريب هذا النموذج مجموعة بيانات ضخمة من أزواج أجزاء الطلبات.
واجهت InstaLILY AI العديد من التحديات عند استخدام الطرق التقليدية:
- قابلية التوسّع: لم يكن من الممكن تصنيف ملايين أسطر أوامر العمل يدويًا.
- التكلفة والجودة: كان استخدام نماذج أخرى متطورة لتصنيف البيانات أكثر تكلفة بثلاث مرات وأدى إلى انخفاض معدلات الاتفاق بنسبة% 15 مقارنةً بالحل النهائي.
- الأداء: سيكون البحث المباشر المستند إلى نموذج لغوي كبير بطيئًا جدًا، وقد أظهرت الاختبارات الأولية تأخيرًا لمدة دقيقتين، كما أنّه لن يتمكّن من التعامل مع أكثر من 500 طلب بحث في الثانية (QPS) المطلوبة في مرحلة الإنتاج.
كانوا بحاجة إلى نظام يمكنه إنشاء بيانات عالية الجودة بفعالية من حيث التكلفة، ما يؤدي إلى نموذج نهائي سريع ودقيق.
مسار معالجة من ثلاث مراحل باستخدام Gemini وGemma
صمّمت شركة InstaLILY AI مسارًا من ثلاث مراحل يستخدم إمكانات الاستدلال المتقدّمة في Gemini 2.5 Pro لإنشاء تصنيفات عالية الجودة، ثم تحويل هذه المعرفة إلى نماذج أصغر وأكثر فعالية لأغراض الإنتاج.
تعمل سلسلة المعالجة على النحو التالي:
- إنشاء بيانات اصطناعية (نموذج المعلّم): ينشئ Gemini 2.5 Pro تصنيفات ذهبية لمعالجة أزواج أجزاء الطلبات. لتحقيق دقة عالية، تستخدم أداة InstaLILY AI أسلوب الاستدلال المتسلسل المتعدد الجوانب (Multi-CoT)، ما يدفع النموذج إلى تحليل الأجزاء من زوايا متعددة، بما في ذلك العلامة التجارية والفئة والمواصفات ومنطق الأنشطة التجارية المعقد لتحقيق التوافق. وقد حقّق هذا النهج نسبة اتفاق بلغت% 94 مع الخبراء البشريين في مجموعة اختبار عمياء.
- تدريب نموذج الطلاب: يتم استخدام التصنيفات العالية الجودة من Gemini 2.5 Pro لضبط Gemma-7B بدقة. استخدمت InstaLILY AI العديد من الأساليب لتحسين نموذج الطالب، بما في ذلك أسلوب Direct Preference Optimization (DPO)، الذي قلّل من النتائج الإيجابية الخاطئة بنسبة %40. أنشأ الفريق أيضًا مجموعة من ثلاثة نماذج معدَّلة من Gemma تصوّت على كل عيّنة، ما أدّى إلى زيادة دقة التصنيف إلى %96.
- العرض في مرحلة الإنتاج: يتم استخلاص المعرفة من نماذج Gemma في نموذج BERT خفيف الوزن (110 مليون مَعلمة) لبيئة الإنتاج النهائية. يحافظ هذا النموذج الأصغر على دقة بنسبة% 89 في مقياس F1 مع عرض الطلبات بمعدّل 600 طلب في الثانية.
"لولا استخدام ميزة "سلسلة الأفكار" في النماذج اللغوية الكبيرة لتصنيف البيانات من أجل إطلاق نموذجنا المقطّر، لكُنّا سنصنّف كمية هائلة من البيانات يدويًا"، هذا ما قاله فريق الذكاء الاصطناعي في InstaLILY. "ساهم Gemini بشكل كبير في تسريع عملية إعداد البيانات، ما أتاح لنا إعادة تخصيص مئات الساعات الهندسية لمهام أكثر أهمية، مثل الضبط الدقيق والتنسيق".
تقليل زمن الانتقال بنسبة% 99.8 والتكاليف بنسبة %98.3
حقّقت بنية المعلّم والطالب تحسينات كبيرة في السرعة والتكلفة والدقة.
حقق النظام النهائي ما يلي:
- تقليل وقت استجابة طلب البحث: من دقيقتَين إلى 0.2 ثانية (تحسُّن بنسبة% 99.8).
- خفض تكلفة العرض: من 0.12 دولار أمريكي إلى 0.002 دولار أمريكي لكل 1,000 طلب بحث (انخفاض بنسبة% 98.3).
- الدقة العالية: درجة F1 تبلغ% 90 تقريبًا على مجموعة بيانات غير معروفة.
تم أيضًا تسريع عملية التطوير. تمكّن الفريق من إنشاء نموذج أولي في غضون 48 ساعة، بالإضافة إلى مسار إنتاج جاهز في أربعة أسابيع، وهو ما يقدّرون أنّه كان سيستغرق من ثلاثة إلى أربعة أشهر بدون منظومة Gemini وGemma المتكاملة.
يقول أميت شاه، المؤسس والرئيس التنفيذي لشركة InstaLILY: "لقد أتاحت لنا المشاركة في برنامج Google Accelerator اتّباع هذا النهج الكامل". "لقد ساعدنا الدعم الفني المباشر وإتاحة استخدام Gemini وGemma قبل إطلاقهما وأرصدة Cloud السخية في الانتقال من النموذج الأولي إلى مرحلة الإنتاج في غضون أسابيع، وليس أشهر".
التطوير المستقبلي باستخدام التعلّم المتعدّد الوسائط والمستمر
تخطّط InstaLILY AI لتوسيع إمكانات وكلاء الذكاء الاصطناعي من خلال دمج ميزات Gemini المتعددة الوسائط. سيتيح ذلك للفنّيين تحميل صورة للجهاز المكسور للمساعدة في تشخيص المشكلة. ويعمل الفريق أيضًا على تطوير خدمة تعلّم نشط مستمر تحدّد طلبات البحث المباشرة التي تكون فيها الثقة منخفضة، وتوجّهها إلى Gemini لإضافة التعليقات التوضيحية، ثم تعيد تدريب النماذج المستخدَمة في الإنتاج أسبوعيًا.
يوضّح النجاح الذي حقّقه محرّك بحث InstaLILY AI لوكلاء الذكاء الاصطناعي كيف يمكن لبنية المعلّم والطالب، التي تجمع بين قدرة الاستدلال في Gemini 2.5 Pro وكفاءة نماذج Gemma المضبوطة بدقة، أن تحلّ تحديات إنشاء البيانات المعقّدة وتتيح تطبيقات ذكاء اصطناعي قابلة للتطوير وعالية الأداء.
لبدء إنشاء التطبيقات باستخدام نماذج Gemini وGemma، يمكنك الاطّلاع على مستندات واجهة برمجة التطبيقات.