به اشتراک بگذارید

29 اوت 2025

InstaLILY: یک موتور جستجوی سازمانی نمایندگی که توسط Gemini طراحی شده است

آمیت شاه

مدیرعامل و یکی از بنیانگذاران، Instalily.ai

مت رایدنور

رئیس اکوسیستم شتاب دهنده و استارتاپ ایالات متحده آمریکا، گوگل

قهرمان ویترین AgentOps

عوامل هوش مصنوعی سازمانی که گردش‌های کاری پیچیده، مانند فروش B2B یا تعمیر و نگهداری صنعتی را خودکار می‌کنند، به مدل‌هایی نیاز دارند که بر روی مقادیر وسیعی از داده‌های با کیفیت بالا و مختص دامنه آموزش دیده باشند. برای بسیاری از شرکت‌ها، ایجاد این داده‌ها یک گلوگاه اصلی است، زیرا برچسب‌گذاری دستی کند و گران است و مدل‌های عمومی می‌توانند تفاوت‌های ظریف لازم را نداشته باشند.

InstaLILY AI ، یک پلتفرم سازمانی برای عوامل هوش مصنوعی مستقل و عمودی، به شرکت‌ها کمک می‌کند تا گردش‌های کاری پیچیده در فروش، خدمات و عملیات را خودکار و اجرا کنند. برای یکی از مشتریان خود، PartsTown، آنها نیاز داشتند که یک موتور جستجوی بلادرنگ برای عوامل هوش مصنوعی بسازند تا فوراً تکنسین های خدمات میدانی را با قطعات جایگزین خاص از کاتالوگ بیش از پنج میلیون مورد مطابقت دهد. این نیاز به روشی مقیاس‌پذیر برای تولید میلیون‌ها برچسب با کیفیت بالا برای آموزش مدل داشت.

برای حل این مشکل، InstaLILY AI خط لوله تولید داده مصنوعی چند مرحله ای را توسعه داد. خط لوله از معماری معلم-دانش آموز استفاده می کند، با Gemini 2.5 Pro به عنوان مدل "معلم" برای تولید داده های آموزشی استاندارد طلایی، و یک مدل Gemma تنظیم شده به عنوان "دانشجو" برای فعال کردن استقرار تولید مقیاس پذیر و کم هزینه.

چالش ایجاد داده های آموزشی تخصصی در مقیاس

هسته اصلی موتور جستجوی قطعات یک مدل مرتبط است که درخواست یک تکنسین خدمات (به عنوان مثال، "کمپرسور برای یخچال نورث لند") را به شماره دقیق قطعه متصل می کند. آموزش این مدل به مجموعه داده عظیمی از جفت‌های بخش پرس و جو نیاز داشت.

InstaLILY AI با چندین چالش با روش‌های سنتی مواجه شد:

  • مقیاس پذیری: برچسب زدن دستی میلیون ها خط سفارش کار امکان پذیر نبود.
  • هزینه و کیفیت: استفاده از سایر مدل‌های مرزی برای برچسب‌گذاری سه برابر گران‌تر بود و در مقایسه با راه‌حل نهایی آنها 15 درصد نرخ توافق کمتری داشت.
  • عملکرد: یک جستجوی زنده مبتنی بر LLM بسیار کند خواهد بود، با آزمایش‌های اولیه که تأخیر دو دقیقه‌ای را نشان می‌دهد و قادر به رسیدگی به 500+ پرس و جو در ثانیه (QPS) در تولید نیست.


آنها به سیستمی نیاز داشتند که بتواند داده های باکیفیت را به صرفه تولید کند و به مدل نهایی سریع و دقیق منجر شود.

خط لوله سه مرحله ای با جمینی و جما

InstaLILY AI خط لوله سه مرحله‌ای را مهندسی کرد که از استدلال پیشرفته Gemini 2.5 Pro برای ایجاد برچسب‌های با کیفیت بالا استفاده می‌کند و سپس آن دانش را به مدل‌های کوچکتر و کارآمدتر برای تولید تقطیر می‌کند.

خط لوله به شرح زیر عمل می کند:

  • تولید داده‌های مصنوعی (مدل معلم): Gemini 2.5 Pro برچسب‌های استاندارد طلایی را برای جفت‌های قطعه جستجو تولید می‌کند. برای دستیابی به دقت بالا، InstaLILY AI از استدلال زنجیره فکری چند چشم انداز (Multi-CoT) استفاده می کند، که مدل را وادار می کند تا قطعات را از زوایای مختلف، از جمله برند، دسته، مشخصات، و منطق تجاری پیچیده برای سازگاری تجزیه و تحلیل کند. این رویکرد 94٪ با متخصصان انسانی در یک مجموعه آزمایش کور موافقت کرد.
  • آموزش مدل دانش آموزی: برچسب های با کیفیت Gemini 2.5 Pro برای تنظیم دقیق Gemma-7B استفاده می شود. هوش مصنوعی InstaLILY از چندین تکنیک برای بهینه‌سازی مدل دانش‌آموز استفاده کرد، از جمله بهینه‌سازی ترجیح مستقیم (DPO) که نتایج مثبت کاذب را تا 40% کاهش داد. آن‌ها همچنین مجموعه‌ای از سه نوع جما را ایجاد کردند که بر روی هر نمونه رای می‌دهند و دقت برچسب را به 96% افزایش می‌دهند.
  • خدمات تولید: دانش مدل های Gemma در یک مدل BERT سبک وزن (پارامترهای 110M) برای محیط تولید نهایی تقطیر می شود. این مدل کوچکتر 89% دقت امتیاز F1 را حفظ می کند در حالی که درخواست ها را با 600 QPS ارائه می دهد.


تیم هوش مصنوعی InstaLILY می‌گوید: «بدون برچسب‌گذاری زنجیره‌ای فکری LLM برای راه‌اندازی مدل تقطیر شده ما، ما حجم عظیمی از داده‌ها را برچسب‌گذاری می‌کنیم. جمینی به طور قابل توجهی آماده‌سازی داده‌ها را تسریع کرد و به ما این امکان را داد که صدها ساعت مهندسی را دوباره به وظایف اهرمی بالاتری مانند تنظیم دقیق و ارکستراسیون اختصاص دهیم.

کاهش تأخیر 99.8 درصد و هزینه ها تا 98.3 درصد

معماری معلم و دانش آموز پیشرفت های قابل توجهی را در سرعت، هزینه و دقت ایجاد کرد.

سیستم نهایی به دست آمده:

  • کاهش تأخیر درخواست: از 2 دقیقه به 0.2 ثانیه (99.8٪ بهبود).
  • کاهش هزینه خدمات: از 0.12 دلار به 0.002 دلار در هر 1000 پرس و جو (98.3٪ کاهش).
  • دقت بالا: ~90% امتیاز F1 در مجموعه داده های نگهدارنده کور.


روند توسعه نیز تسریع شد. این تیم یک نمونه اولیه را در 48 ساعت و یک خط لوله آماده برای تولید را در چهار هفته ساخت - فرآیندی که آنها تخمین می‌زنند بدون اکوسیستم Gemini و Gemma سه تا چهار ماه طول می‌کشید.

آمیت شاه، بنیانگذار و مدیر عامل InstaLILY گفت: «بخشی از Google Accelerator کل این رویکرد را باز کرد. "پشتیبانی فنی عملی، دسترسی زودهنگام به Gemini و Gemma، و اعتبارات سخاوتمندانه Cloud به ما کمک کرد تا در عرض چند هفته و نه چند ماه از نمونه اولیه به تولید حرکت کنیم."

توسعه آینده با یادگیری چندوجهی و مستمر

InstaLILY AI قصد دارد با استفاده از ویژگی های چندوجهی Gemini، قابلیت های عوامل هوش مصنوعی خود را گسترش دهد. این به تکنسین‌ها اجازه می‌دهد تا عکس یک واحد شکسته را برای کمک به تشخیص آپلود کنند. آنها همچنین در حال توسعه یک سرویس یادگیری فعال مستمر هستند که درخواست‌های زنده با اعتماد پایین را علامت‌گذاری می‌کند، آنها را برای حاشیه‌نویسی به Gemini هدایت می‌کند، و مدل‌های تولیدی را به صورت هفتگی آموزش می‌دهد.

موفقیت موتور جستجوی InstaLILY AI برای عوامل هوش مصنوعی نشان می‌دهد که چگونه یک معماری معلم-دانش‌آموز، با ترکیب قدرت استدلال Gemini 2.5 Pro با کارایی مدل‌های جما تنظیم‌شده، می‌تواند چالش‌های پیچیده تولید داده را حل کند و برنامه‌های هوش مصنوعی با کارایی بالا و مقیاس‌پذیر را فعال کند.

برای شروع ساخت با مدل‌های Gemini و Gemma، اسناد API ما را بخوانید.

بازی های گرگ

Wolf Games از Gemini API برای افزایش دقت تولید محتوا تا 96 درصد و کاهش تأخیر به کمتر از 20 ثانیه برای داستان‌های جنایی روزانه خود استفاده می‌کند.