اشتراک گذاری

۲۹ آگوست ۲۰۲۵

InstaLILY: یک موتور جستجوی سازمانی عامل‌محور، ارائه شده توسط Gemini

آمیت شاه

مدیرعامل و هم‌بنیانگذار، Instaly.ai

مت ریدنور

رئیس شتاب‌دهنده و اکوسیستم استارتاپی آمریکا، گوگل

قهرمان نمایشی AgentOps

عوامل هوش مصنوعی سازمانی که گردش‌های کاری پیچیده، مانند فروش B2B یا نگهداری صنعتی را خودکار می‌کنند، به مدل‌هایی نیاز دارند که بر روی حجم زیادی از داده‌های با کیفیت بالا و مختص هر حوزه آموزش دیده باشند. برای بسیاری از شرکت‌ها، ایجاد این داده‌ها یک تنگنای اصلی است، زیرا برچسب‌گذاری دستی کند و پرهزینه است و مدل‌های عمومی ممکن است فاقد ظرافت‌های لازم باشند.

InstaLILY AI ، یک پلتفرم سازمانی برای عامل‌های هوش مصنوعی خودکار و عمودی، به شرکت‌ها کمک می‌کند تا گردش‌های کاری پیچیده را در فروش، خدمات و عملیات خودکار و اجرا کنند. برای یکی از مشتریانشان، PartsTown، آنها نیاز به ساخت یک موتور جستجوی بلادرنگ برای عامل‌های هوش مصنوعی داشتند تا تکنسین‌های خدمات میدانی را فوراً با قطعات جایگزین خاص از کاتالوگی با بیش از پنج میلیون کالا مطابقت دهد. این امر مستلزم روشی مقیاس‌پذیر برای تولید میلیون‌ها برچسب با کیفیت بالا برای آموزش مدل بود.

برای حل این مشکل، InstaLILY AI یک خط تولید داده‌های مصنوعی چند مرحله‌ای توسعه داده است. این خط تولید از معماری معلم-شاگرد استفاده می‌کند، که در آن Gemini 2.5 Pro به عنوان مدل «معلم» برای تولید داده‌های آموزشی با استاندارد طلایی و یک مدل Gemma تنظیم‌شده به عنوان «شاگرد» برای امکان‌پذیر کردن استقرار تولید مقیاس‌پذیر و کم‌هزینه عمل می‌کند.

چالش ایجاد داده‌های آموزشی تخصصی در مقیاس بزرگ

هسته اصلی موتور جستجوی قطعات، یک مدل مرتبط بودن است که عبارت جستجوی یک تکنسین خدمات (مثلاً "کمپرسور برای یخچال نورث‌لند") را به شماره دقیق قطعه متصل می‌کند. آموزش این مدل نیاز به مجموعه داده‌های عظیمی از جفت‌های عبارت جستجو-قطعه داشت.

هوش مصنوعی InstaLILY با روش‌های سنتی با چالش‌های متعددی روبرو بود:

  • مقیاس‌پذیری: برچسب‌گذاری دستی میلیون‌ها خط سفارش کار امکان‌پذیر نبود.
  • هزینه و کیفیت: استفاده از سایر مدل‌های مرزی برای برچسب‌گذاری، سه برابر گران‌تر بود و منجر به ۱۵٪ نرخ توافق کمتر در مقایسه با راه‌حل نهایی آنها شد.
  • عملکرد: یک جستجوی زنده مبتنی بر LLM بسیار کند خواهد بود، به طوری که آزمایش‌های اولیه تأخیر دو دقیقه‌ای را نشان می‌دهند و قادر به مدیریت بیش از ۵۰۰ پرس‌وجو در ثانیه (QPS) مورد نیاز در محیط عملیاتی نیستند.


آنها به سیستمی نیاز داشتند که بتواند داده‌های با کیفیت بالا را به صورت مقرون به صرفه تولید کند و منجر به یک مدل نهایی سریع و دقیق شود.

یک خط لوله سه مرحله‌ای با Gemini و Gemma

هوش مصنوعی InstaLILY یک خط لوله سه مرحله‌ای را مهندسی کرده است که از استدلال پیشرفته Gemini 2.5 Pro برای ایجاد برچسب‌های با کیفیت بالا استفاده می‌کند و سپس آن دانش را به مدل‌های کوچک‌تر و کارآمدتر برای تولید تبدیل می‌کند.

خط لوله به شرح زیر عمل می کند:

  • تولید داده‌های مصنوعی (مدل معلم): Gemini 2.5 Pro برچسب‌های استاندارد طلایی را برای جفت‌های پرس‌وجو-قطعه تولید می‌کند. برای دستیابی به دقت بالا، InstaLILY AI از استدلال زنجیره فکری چند دیدگاهی (Multi-CoT) استفاده می‌کند و مدل را وادار می‌کند تا قطعات را از زوایای مختلف، از جمله برند، دسته‌بندی، مشخصات و منطق پیچیده کسب‌وکار برای سازگاری، تجزیه و تحلیل کند. این رویکرد در یک مجموعه آزمایش کور، به توافق ۹۴ درصدی با متخصصان انسانی دست یافت.
  • آموزش مدل دانش‌آموز: از برچسب‌های باکیفیت Gemini 2.5 Pro برای تنظیم دقیق Gemma-7B استفاده می‌شود. InstaLILY AI از چندین تکنیک برای بهینه‌سازی مدل دانش‌آموز استفاده کرد، از جمله بهینه‌سازی ترجیح مستقیم (DPO)، که باعث کاهش ۴۰ درصدی مثبت‌های کاذب شد. آنها همچنین مجموعه‌ای از سه نوع Gemma تنظیم‌شده ایجاد کردند که روی هر نمونه رأی می‌دهند و دقت برچسب را به ۹۶ درصد افزایش می‌دهند.
  • ارائه خدمات در مرحله تولید: دانش حاصل از مدل‌های Gemma در یک مدل BERT سبک (با ۱۱۰ میلیون پارامتر) برای محیط تولید نهایی خلاصه می‌شود. این مدل کوچک‌تر، دقت امتیاز F1 ۸۹٪ را در حین ارائه درخواست‌ها با نرخ ۶۰۰ QPS حفظ می‌کند.


تیم هوش مصنوعی InstaLILY گفت: «بدون برچسب‌گذاری زنجیره فکری LLM برای راه‌اندازی مدل خلاصه‌شده‌مان، ما حجم عظیمی از داده‌ها را به‌صورت دستی برچسب‌گذاری می‌کردیم. Gemini به‌طور قابل‌توجهی آماده‌سازی داده‌ها را تسریع کرد و به ما اجازه داد صدها ساعت مهندسی را به وظایف مهم‌تری مانند تنظیم دقیق و تنظیم مجدد اختصاص دهیم.»

کاهش ۹۹.۸ درصدی تأخیر و ۹۸.۳ درصدی هزینه‌ها

معماری معلم-دانش‌آموز پیشرفت‌های چشمگیری در سرعت، هزینه و دقت ارائه داد.

سیستم نهایی به دست آمد:

  • کاهش تأخیر پرس‌وجو: از ۲ دقیقه به ۰.۲ ثانیه (بهبود ۹۹.۸ درصدی).
  • کاهش هزینه خدمات: از ۰.۱۲ دلار به ۰.۰۰۲ دلار به ازای هر ۱۰۰۰ درخواست (کاهش ۹۸.۳ درصدی).
  • دقت بالا: تقریباً ۹۰٪ امتیاز F1 روی یک مجموعه داده‌ی کورکورانه.


فرآیند توسعه نیز تسریع شد. تیم در عرض ۴۸ ساعت یک نمونه اولیه و در عرض چهار هفته یک خط تولید آماده تولید ساخت - فرآیندی که تخمین زده می‌شود بدون اکوسیستم Gemini و Gemma سه تا چهار ماه طول می‌کشید.

آمیت شاه، بنیانگذار و مدیرعامل InstaLILY، گفت: «عضویت در شتاب‌دهنده گوگل ، کل این رویکرد را ممکن ساخت. پشتیبانی فنی عملی، دسترسی زودهنگام به Gemini و Gemma و اعتبارات سخاوتمندانه ابری به ما کمک کرد تا ظرف چند هفته - نه چند ماه - از نمونه اولیه به تولید برسیم.»

توسعه آینده با یادگیری چندوجهی و مداوم

شرکت InstaLILY AI قصد دارد با ترکیب ویژگی‌های چندوجهی Gemini، قابلیت‌های عوامل هوش مصنوعی خود را گسترش دهد. این امر به تکنسین‌ها اجازه می‌دهد تا عکسی از یک واحد خراب را برای کمک به تشخیص آپلود کنند. آنها همچنین در حال توسعه یک سرویس یادگیری فعال مداوم هستند که پرس‌وجوهای زنده با اطمینان پایین را علامت‌گذاری می‌کند، آنها را برای حاشیه‌نویسی به Gemini هدایت می‌کند و مدل‌های تولید را به صورت هفتگی آموزش مجدد می‌دهد.

موفقیت موتور جستجوی InstaLILY AI برای عامل‌های هوش مصنوعی آنها نشان می‌دهد که چگونه یک معماری معلم-دانش‌آموز، با ترکیب قدرت استدلال Gemini 2.5 Pro با کارایی مدل‌های دقیق Gemma، می‌تواند چالش‌های پیچیده تولید داده‌ها را حل کند و برنامه‌های هوش مصنوعی با کارایی بالا و مقیاس‌پذیر را فعال کند.

برای شروع ساخت با مدل‌های Gemini و Gemma، مستندات API ما را مطالعه کنید.

بازی‌های گرگ

ولف گیمز از رابط برنامه‌نویسی Gemini برای افزایش دقت تولید محتوا تا ۹۶٪ و کاهش تأخیر به کمتر از ۲۰ ثانیه برای داستان‌های جنایی روزانه خود استفاده می‌کند.