29 اوت 2025
InstaLILY: یک موتور جستجوی سازمانی نمایندگی که توسط Gemini طراحی شده است

عوامل هوش مصنوعی سازمانی که گردشهای کاری پیچیده، مانند فروش B2B یا تعمیر و نگهداری صنعتی را خودکار میکنند، به مدلهایی نیاز دارند که بر روی مقادیر وسیعی از دادههای با کیفیت بالا و مختص دامنه آموزش دیده باشند. برای بسیاری از شرکتها، ایجاد این دادهها یک گلوگاه اصلی است، زیرا برچسبگذاری دستی کند و گران است و مدلهای عمومی میتوانند تفاوتهای ظریف لازم را نداشته باشند.
InstaLILY AI ، یک پلتفرم سازمانی برای عوامل هوش مصنوعی مستقل و عمودی، به شرکتها کمک میکند تا گردشهای کاری پیچیده در فروش، خدمات و عملیات را خودکار و اجرا کنند. برای یکی از مشتریان خود، PartsTown، آنها نیاز داشتند که یک موتور جستجوی بلادرنگ برای عوامل هوش مصنوعی بسازند تا فوراً تکنسین های خدمات میدانی را با قطعات جایگزین خاص از کاتالوگ بیش از پنج میلیون مورد مطابقت دهد. این نیاز به روشی مقیاسپذیر برای تولید میلیونها برچسب با کیفیت بالا برای آموزش مدل داشت.
برای حل این مشکل، InstaLILY AI خط لوله تولید داده مصنوعی چند مرحله ای را توسعه داد. خط لوله از معماری معلم-دانش آموز استفاده می کند، با Gemini 2.5 Pro به عنوان مدل "معلم" برای تولید داده های آموزشی استاندارد طلایی، و یک مدل Gemma تنظیم شده به عنوان "دانشجو" برای فعال کردن استقرار تولید مقیاس پذیر و کم هزینه.
چالش ایجاد داده های آموزشی تخصصی در مقیاس
هسته اصلی موتور جستجوی قطعات یک مدل مرتبط است که درخواست یک تکنسین خدمات (به عنوان مثال، "کمپرسور برای یخچال نورث لند") را به شماره دقیق قطعه متصل می کند. آموزش این مدل به مجموعه داده عظیمی از جفتهای بخش پرس و جو نیاز داشت.
InstaLILY AI با چندین چالش با روشهای سنتی مواجه شد:
- مقیاس پذیری: برچسب زدن دستی میلیون ها خط سفارش کار امکان پذیر نبود.
- هزینه و کیفیت: استفاده از سایر مدلهای مرزی برای برچسبگذاری سه برابر گرانتر بود و در مقایسه با راهحل نهایی آنها 15 درصد نرخ توافق کمتری داشت.
- عملکرد: یک جستجوی زنده مبتنی بر LLM بسیار کند خواهد بود، با آزمایشهای اولیه که تأخیر دو دقیقهای را نشان میدهد و قادر به رسیدگی به 500+ پرس و جو در ثانیه (QPS) در تولید نیست.
آنها به سیستمی نیاز داشتند که بتواند داده های باکیفیت را به صرفه تولید کند و به مدل نهایی سریع و دقیق منجر شود.
خط لوله سه مرحله ای با جمینی و جما
InstaLILY AI خط لوله سه مرحلهای را مهندسی کرد که از استدلال پیشرفته Gemini 2.5 Pro برای ایجاد برچسبهای با کیفیت بالا استفاده میکند و سپس آن دانش را به مدلهای کوچکتر و کارآمدتر برای تولید تقطیر میکند.
خط لوله به شرح زیر عمل می کند:
- تولید دادههای مصنوعی (مدل معلم): Gemini 2.5 Pro برچسبهای استاندارد طلایی را برای جفتهای قطعه جستجو تولید میکند. برای دستیابی به دقت بالا، InstaLILY AI از استدلال زنجیره فکری چند چشم انداز (Multi-CoT) استفاده می کند، که مدل را وادار می کند تا قطعات را از زوایای مختلف، از جمله برند، دسته، مشخصات، و منطق تجاری پیچیده برای سازگاری تجزیه و تحلیل کند. این رویکرد 94٪ با متخصصان انسانی در یک مجموعه آزمایش کور موافقت کرد.
- آموزش مدل دانش آموزی: برچسب های با کیفیت Gemini 2.5 Pro برای تنظیم دقیق Gemma-7B استفاده می شود. هوش مصنوعی InstaLILY از چندین تکنیک برای بهینهسازی مدل دانشآموز استفاده کرد، از جمله بهینهسازی ترجیح مستقیم (DPO) که نتایج مثبت کاذب را تا 40% کاهش داد. آنها همچنین مجموعهای از سه نوع جما را ایجاد کردند که بر روی هر نمونه رای میدهند و دقت برچسب را به 96% افزایش میدهند.
- خدمات تولید: دانش مدل های Gemma در یک مدل BERT سبک وزن (پارامترهای 110M) برای محیط تولید نهایی تقطیر می شود. این مدل کوچکتر 89% دقت امتیاز F1 را حفظ می کند در حالی که درخواست ها را با 600 QPS ارائه می دهد.
تیم هوش مصنوعی InstaLILY میگوید: «بدون برچسبگذاری زنجیرهای فکری LLM برای راهاندازی مدل تقطیر شده ما، ما حجم عظیمی از دادهها را برچسبگذاری میکنیم. جمینی به طور قابل توجهی آمادهسازی دادهها را تسریع کرد و به ما این امکان را داد که صدها ساعت مهندسی را دوباره به وظایف اهرمی بالاتری مانند تنظیم دقیق و ارکستراسیون اختصاص دهیم.
کاهش تأخیر 99.8 درصد و هزینه ها تا 98.3 درصد
معماری معلم و دانش آموز پیشرفت های قابل توجهی را در سرعت، هزینه و دقت ایجاد کرد.
سیستم نهایی به دست آمده:
- کاهش تأخیر درخواست: از 2 دقیقه به 0.2 ثانیه (99.8٪ بهبود).
- کاهش هزینه خدمات: از 0.12 دلار به 0.002 دلار در هر 1000 پرس و جو (98.3٪ کاهش).
- دقت بالا: ~90% امتیاز F1 در مجموعه داده های نگهدارنده کور.
روند توسعه نیز تسریع شد. این تیم یک نمونه اولیه را در 48 ساعت و یک خط لوله آماده برای تولید را در چهار هفته ساخت - فرآیندی که آنها تخمین میزنند بدون اکوسیستم Gemini و Gemma سه تا چهار ماه طول میکشید.
آمیت شاه، بنیانگذار و مدیر عامل InstaLILY گفت: «بخشی از Google Accelerator کل این رویکرد را باز کرد. "پشتیبانی فنی عملی، دسترسی زودهنگام به Gemini و Gemma، و اعتبارات سخاوتمندانه Cloud به ما کمک کرد تا در عرض چند هفته و نه چند ماه از نمونه اولیه به تولید حرکت کنیم."
توسعه آینده با یادگیری چندوجهی و مستمر
InstaLILY AI قصد دارد با استفاده از ویژگی های چندوجهی Gemini، قابلیت های عوامل هوش مصنوعی خود را گسترش دهد. این به تکنسینها اجازه میدهد تا عکس یک واحد شکسته را برای کمک به تشخیص آپلود کنند. آنها همچنین در حال توسعه یک سرویس یادگیری فعال مستمر هستند که درخواستهای زنده با اعتماد پایین را علامتگذاری میکند، آنها را برای حاشیهنویسی به Gemini هدایت میکند، و مدلهای تولیدی را به صورت هفتگی آموزش میدهد.
موفقیت موتور جستجوی InstaLILY AI برای عوامل هوش مصنوعی نشان میدهد که چگونه یک معماری معلم-دانشآموز، با ترکیب قدرت استدلال Gemini 2.5 Pro با کارایی مدلهای جما تنظیمشده، میتواند چالشهای پیچیده تولید داده را حل کند و برنامههای هوش مصنوعی با کارایی بالا و مقیاسپذیر را فعال کند.
برای شروع ساخت با مدلهای Gemini و Gemma، اسناد API ما را بخوانید.
بازی های گرگ
Wolf Games از Gemini API برای افزایش دقت تولید محتوا تا 96 درصد و کاهش تأخیر به کمتر از 20 ثانیه برای داستانهای جنایی روزانه خود استفاده میکند.