۲۹ آگوست ۲۰۲۵
InstaLILY: یک موتور جستجوی سازمانی عاملمحور، ارائه شده توسط Gemini

 عوامل هوش مصنوعی سازمانی که گردشهای کاری پیچیده، مانند فروش B2B یا نگهداری صنعتی را خودکار میکنند، به مدلهایی نیاز دارند که بر روی حجم زیادی از دادههای با کیفیت بالا و مختص هر حوزه آموزش دیده باشند. برای بسیاری از شرکتها، ایجاد این دادهها یک تنگنای اصلی است، زیرا برچسبگذاری دستی کند و پرهزینه است و مدلهای عمومی ممکن است فاقد ظرافتهای لازم باشند.
 InstaLILY AI ، یک پلتفرم سازمانی برای عاملهای هوش مصنوعی خودکار و عمودی، به شرکتها کمک میکند تا گردشهای کاری پیچیده را در فروش، خدمات و عملیات خودکار و اجرا کنند. برای یکی از مشتریانشان، PartsTown، آنها نیاز به ساخت یک موتور جستجوی بلادرنگ برای عاملهای هوش مصنوعی داشتند تا تکنسینهای خدمات میدانی را فوراً با قطعات جایگزین خاص از کاتالوگی با بیش از پنج میلیون کالا مطابقت دهد. این امر مستلزم روشی مقیاسپذیر برای تولید میلیونها برچسب با کیفیت بالا برای آموزش مدل بود.
 برای حل این مشکل، InstaLILY AI یک خط تولید دادههای مصنوعی چند مرحلهای توسعه داده است. این خط تولید از معماری معلم-شاگرد استفاده میکند، که در آن Gemini 2.5 Pro به عنوان مدل «معلم» برای تولید دادههای آموزشی با استاندارد طلایی و یک مدل Gemma تنظیمشده به عنوان «شاگرد» برای امکانپذیر کردن استقرار تولید مقیاسپذیر و کمهزینه عمل میکند. 
چالش ایجاد دادههای آموزشی تخصصی در مقیاس بزرگ
 هسته اصلی موتور جستجوی قطعات، یک مدل مرتبط بودن است که عبارت جستجوی یک تکنسین خدمات (مثلاً "کمپرسور برای یخچال نورثلند") را به شماره دقیق قطعه متصل میکند. آموزش این مدل نیاز به مجموعه دادههای عظیمی از جفتهای عبارت جستجو-قطعه داشت.
 هوش مصنوعی InstaLILY با روشهای سنتی با چالشهای متعددی روبرو بود:
- مقیاسپذیری: برچسبگذاری دستی میلیونها خط سفارش کار امکانپذیر نبود.
- هزینه و کیفیت: استفاده از سایر مدلهای مرزی برای برچسبگذاری، سه برابر گرانتر بود و منجر به ۱۵٪ نرخ توافق کمتر در مقایسه با راهحل نهایی آنها شد.
- عملکرد: یک جستجوی زنده مبتنی بر LLM بسیار کند خواهد بود، به طوری که آزمایشهای اولیه تأخیر دو دقیقهای را نشان میدهند و قادر به مدیریت بیش از ۵۰۰ پرسوجو در ثانیه (QPS) مورد نیاز در محیط عملیاتی نیستند.
آنها به سیستمی نیاز داشتند که بتواند دادههای با کیفیت بالا را به صورت مقرون به صرفه تولید کند و منجر به یک مدل نهایی سریع و دقیق شود.
یک خط لوله سه مرحلهای با Gemini و Gemma
 هوش مصنوعی InstaLILY یک خط لوله سه مرحلهای را مهندسی کرده است که از استدلال پیشرفته Gemini 2.5 Pro برای ایجاد برچسبهای با کیفیت بالا استفاده میکند و سپس آن دانش را به مدلهای کوچکتر و کارآمدتر برای تولید تبدیل میکند.
 خط لوله به شرح زیر عمل می کند:
- تولید دادههای مصنوعی (مدل معلم): Gemini 2.5 Pro برچسبهای استاندارد طلایی را برای جفتهای پرسوجو-قطعه تولید میکند. برای دستیابی به دقت بالا، InstaLILY AI از استدلال زنجیره فکری چند دیدگاهی (Multi-CoT) استفاده میکند و مدل را وادار میکند تا قطعات را از زوایای مختلف، از جمله برند، دستهبندی، مشخصات و منطق پیچیده کسبوکار برای سازگاری، تجزیه و تحلیل کند. این رویکرد در یک مجموعه آزمایش کور، به توافق ۹۴ درصدی با متخصصان انسانی دست یافت.
- آموزش مدل دانشآموز: از برچسبهای باکیفیت Gemini 2.5 Pro برای تنظیم دقیق Gemma-7B استفاده میشود. InstaLILY AI از چندین تکنیک برای بهینهسازی مدل دانشآموز استفاده کرد، از جمله بهینهسازی ترجیح مستقیم (DPO)، که باعث کاهش ۴۰ درصدی مثبتهای کاذب شد. آنها همچنین مجموعهای از سه نوع Gemma تنظیمشده ایجاد کردند که روی هر نمونه رأی میدهند و دقت برچسب را به ۹۶ درصد افزایش میدهند.
- ارائه خدمات در مرحله تولید: دانش حاصل از مدلهای Gemma در یک مدل BERT سبک (با ۱۱۰ میلیون پارامتر) برای محیط تولید نهایی خلاصه میشود. این مدل کوچکتر، دقت امتیاز F1 ۸۹٪ را در حین ارائه درخواستها با نرخ ۶۰۰ QPS حفظ میکند.
تیم هوش مصنوعی InstaLILY گفت: «بدون برچسبگذاری زنجیره فکری LLM برای راهاندازی مدل خلاصهشدهمان، ما حجم عظیمی از دادهها را بهصورت دستی برچسبگذاری میکردیم. Gemini بهطور قابلتوجهی آمادهسازی دادهها را تسریع کرد و به ما اجازه داد صدها ساعت مهندسی را به وظایف مهمتری مانند تنظیم دقیق و تنظیم مجدد اختصاص دهیم.»
کاهش ۹۹.۸ درصدی تأخیر و ۹۸.۳ درصدی هزینهها
 معماری معلم-دانشآموز پیشرفتهای چشمگیری در سرعت، هزینه و دقت ارائه داد.
 سیستم نهایی به دست آمد:
- کاهش تأخیر پرسوجو: از ۲ دقیقه به ۰.۲ ثانیه (بهبود ۹۹.۸ درصدی).
- کاهش هزینه خدمات: از ۰.۱۲ دلار به ۰.۰۰۲ دلار به ازای هر ۱۰۰۰ درخواست (کاهش ۹۸.۳ درصدی).
- دقت بالا: تقریباً ۹۰٪ امتیاز F1 روی یک مجموعه دادهی کورکورانه.
فرآیند توسعه نیز تسریع شد. تیم در عرض ۴۸ ساعت یک نمونه اولیه و در عرض چهار هفته یک خط تولید آماده تولید ساخت - فرآیندی که تخمین زده میشود بدون اکوسیستم Gemini و Gemma سه تا چهار ماه طول میکشید.
آمیت شاه، بنیانگذار و مدیرعامل InstaLILY، گفت: «عضویت در شتابدهنده گوگل ، کل این رویکرد را ممکن ساخت. پشتیبانی فنی عملی، دسترسی زودهنگام به Gemini و Gemma و اعتبارات سخاوتمندانه ابری به ما کمک کرد تا ظرف چند هفته - نه چند ماه - از نمونه اولیه به تولید برسیم.»
توسعه آینده با یادگیری چندوجهی و مداوم
 شرکت InstaLILY AI قصد دارد با ترکیب ویژگیهای چندوجهی Gemini، قابلیتهای عوامل هوش مصنوعی خود را گسترش دهد. این امر به تکنسینها اجازه میدهد تا عکسی از یک واحد خراب را برای کمک به تشخیص آپلود کنند. آنها همچنین در حال توسعه یک سرویس یادگیری فعال مداوم هستند که پرسوجوهای زنده با اطمینان پایین را علامتگذاری میکند، آنها را برای حاشیهنویسی به Gemini هدایت میکند و مدلهای تولید را به صورت هفتگی آموزش مجدد میدهد.
 موفقیت موتور جستجوی InstaLILY AI برای عاملهای هوش مصنوعی آنها نشان میدهد که چگونه یک معماری معلم-دانشآموز، با ترکیب قدرت استدلال Gemini 2.5 Pro با کارایی مدلهای دقیق Gemma، میتواند چالشهای پیچیده تولید دادهها را حل کند و برنامههای هوش مصنوعی با کارایی بالا و مقیاسپذیر را فعال کند.
 برای شروع ساخت با مدلهای Gemini و Gemma، مستندات API ما را مطالعه کنید. 
بازیهای گرگ
ولف گیمز از رابط برنامهنویسی Gemini برای افزایش دقت تولید محتوا تا ۹۶٪ و کاهش تأخیر به کمتر از ۲۰ ثانیه برای داستانهای جنایی روزانه خود استفاده میکند.


