InstaLILY AI ออกแบบไปป์ไลน์ 3 ขั้นตอนที่ใช้การให้เหตุผลขั้นสูงของ Gemini 2.5 Pro เพื่อสร้างป้ายกำกับคุณภาพสูง จากนั้นก็กลั่นกรองความรู้นั้นให้เป็นโมเดลที่มีขนาดเล็กลงและมีประสิทธิภาพมากขึ้นสำหรับการใช้งานจริง
ไปป์ไลน์ทำงานดังนี้
การสร้างข้อมูลสังเคราะห์ (โมเดลครู): Gemini 2.5 Pro สร้างป้ายกำกับมาตรฐานทองคำสำหรับคู่ส่วนคำค้นหา InstaLILY AI ใช้การให้เหตุผลแบบเชนออฟธ็อตหลายมุมมอง (Multi-CoT) เพื่อให้ได้ความแม่นยำสูง โดยการแจ้งให้โมเดลวิเคราะห์ชิ้นส่วนจากหลายมุมมอง ซึ่งรวมถึงแบรนด์ หมวดหมู่ ข้อมูลจำเพาะ และตรรกะทางธุรกิจที่ซับซ้อนเพื่อความเข้ากันได้ แนวทางนี้มีความสอดคล้องกับผู้เชี่ยวชาญที่เป็นมนุษย์ถึง 94% ในชุดทดสอบแบบปกปิด
"การได้เข้าร่วม Google Accelerator ทำให้เราได้แนวทางใหม่ๆ ทั้งหมดนี้" Amit Shah ผู้ก่อตั้งและ CEO ของ InstaLILY กล่าว "การสนับสนุนด้านเทคนิคแบบลงมือปฏิบัติจริง สิทธิ์เข้าถึง Gemini และ Gemma ก่อนใคร รวมถึงเครดิตบนระบบคลาวด์ที่ให้มาอย่างเต็มที่ช่วยให้เราเปลี่ยนจากต้นแบบไปสู่การผลิตได้ภายในไม่กี่สัปดาห์ ไม่ใช่หลายเดือน"
InstaLILY AI วางแผนที่จะขยายความสามารถของเอเจนต์ AI โดยการผสานรวมฟีเจอร์มัลติโมดัลของ Gemini ซึ่งจะช่วยให้ช่างเทคนิคอัปโหลดรูปภาพของยูนิตที่เสียเพื่อช่วยในการวินิจฉัยได้ นอกจากนี้ ทีมยังกำลังพัฒนาบริการการเรียนรู้แบบต่อเนื่องที่ใช้งานอยู่ ซึ่งจะแจ้งคำค้นหาแบบเรียลไทม์ที่มีความน่าเชื่อถือต่ำ ส่งไปยัง Gemini เพื่อใส่คำอธิบายประกอบ และฝึกโมเดลเวอร์ชันที่ใช้งานจริงอีกครั้งทุกสัปดาห์
ความสำเร็จของเครื่องมือค้นหา AI ของ InstaLILY AI สำหรับเอเจนต์ AI แสดงให้เห็นว่าสถาปัตยกรรมครู-นักเรียนที่ผสานรวมความสามารถในการให้เหตุผลของ Gemini 2.5 Pro เข้ากับประสิทธิภาพของโมเดล Gemma ที่ได้รับการปรับแต่งอย่างละเอียดสามารถแก้ปัญหาความท้าทายในการสร้างข้อมูลที่ซับซ้อน และเปิดใช้งานแอปพลิเคชัน AI ที่ปรับขนาดได้และมีประสิทธิภาพสูง
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],[],[],[],null,["[](/showcase) \nShare\nAUG 29, 2025 \n\nInstaLILY: An agentic enterprise search engine, powered by Gemini \nAmit Shah\n\nCEO \\& Co-Founder, Instalily.ai \nMatt Ridenour\n\nHead of Accelerator \\& Startup Ecosystem USA, Google \n\nEnterprise AI agents that automate complex workflows, like B2B sales or industrial maintenance, require models trained on vast amounts of high-quality, domain-specific data. For many companies, creating this data is a primary bottleneck, as manual labeling is slow and expensive, and generic models can lack the necessary nuance.\n\n\n\u003cbr /\u003e\n\n\n[InstaLILY AI](https://instalily.ai/), an enterprise platform for autonomous and vertical AI agents, helps companies automate and run complex workflows in sales, service and operations. For one of their clients, PartsTown, they needed to build a real-time search engine for AI Agents to instantly match field service technicians with specific replacement parts from a catalog of over five million items. This required a scalable way to generate millions of high-quality labels for model training. \n\n\u003cbr /\u003e\n\n\nTo solve this, InstaLILY AI developed a multi-stage synthetic data generation pipeline. The pipeline uses a teacher-student architecture, with Gemini 2.5 Pro acting as the \"teacher\" model to generate gold-standard training data, and a fine-tuned Gemma model as the \"student\" to enable scalable, low-cost production deployment.\n\nThe challenge of creating specialized training data at scale \n\nThe core of the parts search engine is a relevancy model that connects a service technician's query (e.g., \"compressor for a Northland refrigerator\") to the exact part number. Training this model required a massive dataset of query-part pairs.\n\n\n\u003cbr /\u003e\n\n\nInstaLILY AI faced several challenges with traditional methods:\n\n- **Scalability:** Manually labeling millions of work-order lines was not feasible.\n- **Cost and quality:** Using other frontier models for labeling was three times more expensive and resulted in 15% lower agreement rates compared to their final solution.\n- **Performance:** A live LLM-powered search would be too slow, with initial tests showing two-minute latency, and unable to handle the required 500+ queries per second (QPS) in production.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nThey needed a system that could cost-effectively generate high-quality data, leading to a fast and accurate final model.\n\n\u003cbr /\u003e\n\nvideo.title\n\nA three-stage pipeline with Gemini and Gemma \n\nInstaLILY AI engineered a three-stage pipeline that uses Gemini 2.5 Pro's advanced reasoning to create high-quality labels and then distills that knowledge into smaller, more efficient models for production.\n\n\n\u003cbr /\u003e\n\n\nThe pipeline works as follows:\n\n- **Synthetic data generation (teacher model):** Gemini 2.5 Pro generates gold-standard labels for query-part pairs. To achieve high accuracy, InstaLILY AI uses multi-perspective chain-of-thought (Multi-CoT) reasoning, prompting the model to analyze parts from multiple angles, including brand, category, specifications, and complex business logic for compatibility. This approach achieved 94% agreement with human experts on a blind test set.\n- **Student model training:** The high-quality labels from Gemini 2.5 Pro are used to fine-tune Gemma-7B. InstaLILY AI used several techniques to optimize the student model, including Direct Preference Optimization (DPO), which reduced false positives by 40%. They also created an ensemble of three fine-tuned Gemma variants that vote on each sample, increasing label precision to 96%.\n- **Production serving:** The knowledge from the Gemma models is distilled into a lightweight BERT model (110M parameters) for the final production environment. This smaller model maintains 89% F1-score accuracy while serving requests at 600 QPS.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n**\"Without LLM's chain‑of‑thought labeling to bootstrap our distilled model, we'd be hand‑tagging an enormous amount of data,\"** said the InstaLILY AI team. **\"Gemini significantly accelerated data preparation and allowed us to reallocate hundreds of engineering hours to higher leverage tasks like fine-tuning and orchestration.\"**\n\n\u003cbr /\u003e\n\nReducing latency by 99.8% and costs by 98.3% \n\nThe teacher-student architecture delivered significant improvements in speed, cost, and accuracy.\n\n\n\u003cbr /\u003e\n\n\nThe final system achieved:\n\n- **Query latency reduction:** From 2 minutes to 0.2 seconds (a 99.8% improvement).\n- **Serving cost reduction:** From $0.12 to $0.002 per 1,000 queries (a 98.3% reduction).\n- **High accuracy:** \\~90% F1-score on a blind hold-out dataset.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nThe development process was also accelerated. The team built a prototype in 48 hours and a production-ready pipeline in four weeks---a process they estimate would have taken three to four months without the Gemini and Gemma ecosystem. \n\n\"Being part of the [Google Accelerator](https://startup.google.com/programs/accelerator/) unlocked this entire approach,\" said Amit Shah, Founder \\& CEO of InstaLILY. \"The hands-on technical support, early access to Gemini and Gemma, and generous Cloud credits helped us move from prototype to production in weeks---not months.\"\n\n\u003cbr /\u003e\n\nFuture development with multimodal and continuous learning \n\nInstaLILY AI plans to expand the capabilities of its AI agents by incorporating Gemini's multimodal features. This will allow technicians to upload a photo of a broken unit to aid in diagnosis. They are also developing a continuous active-learning service that flags low-confidence live queries, routes them to Gemini for annotation, and retrains the production models weekly.\n\n\n\u003cbr /\u003e\n\n\nThe success of InstaLILY AI's search engine for their AI Agents demonstrates how a teacher-student architecture, combining the reasoning power of Gemini 2.5 Pro with the efficiency of fine-tuned Gemma models, can solve complex data generation challenges and enable high-performance, scalable AI applications.\n\n\n\u003cbr /\u003e\n\n\nTo start building with Gemini and Gemma models, read our [API documentation](https://ai.google.dev/gemini-api/docs). \n\nRelated case studies \n[Passionfroot\nPassionfroot uses AI to help brands run creator marketing campaigns by automating manual tasks and providing tools for seamless collaboration.](/showcase/passionfroot) [Vela Partners\nVela Partners uses Grounding with Google Search for Deeper, Faster Insights](/showcase/vela) [Wolf Games\nWolf Games uses Gemini API to boost content generation accuracy to 96% and slash latency to under 20 seconds for their daily crime stories.](/showcase/wolfgames)"]]