تراز مدل

ایجاد یک درخواست برای یک مدل هوش مصنوعی (AI) مانند Gemini یا Gemma که کاملاً هدف شما را به تصویر می‌کشد، می‌تواند یک کار غیر ضروری باشد. اغلب، شما باید یک درخواست را با دست بنویسید و سپس آن را در موارد مختلف آزمایش کنید تا مطمئن شوید که مطابق با نیازهای شما است. بر اساس نتایج، ممکن است به‌روزرسانی‌های هدفمندی را برای درخواست ایجاد کنید: تغییر برخی کلمات در یک مکان، افزودن یک جمله جدید در مکان دیگر. این فرآیند خیلی اصولی نیست و ممکن است به بهترین نتیجه منجر نشود.

Google روشی را توسعه داده است که از LLM برای به‌روزرسانی خودکار یک الگوی درخواستی بر اساس بازخوردی که در مورد خروجی مدل به زبان ساده ارائه می‌کنید، استفاده می‌کند. بازخورد شما، همراه با اعلان و خروجی مدل، به یک LLM ارسال می‌شود که درخواست را به‌روزرسانی می‌کند تا با رفتار مورد نظر شما هماهنگ شود.

این روش به دو صورت در دسترس است:

  • کتابخانه Python model-alignment منبع باز به شما امکان می‌دهد این رویکرد را به طور انعطاف‌پذیر در نرم‌افزار و گردش کار خود بگنجانید.
  • نسخه ای از این رویکرد در Vertex AI Studio ادغام شده است و به شما امکان می دهد از این گردش کار تنها با چند کلیک استفاده کنید.

کتابخانه منبع باز

Model Alignment یک کتابخانه Python منبع باز است که به عنوان یک بسته در PyPI منتشر شده است که امکان تراز کردن درخواست‌های بازخورد انسانی را از طریق یک API فراهم می‌کند. این کتابخانه بر اساس تحقیقات ما برای به‌روزرسانی سریع از طریق بازخورد انسانی و ایجاد طبقه‌بندی خودکار از داده‌های برچسب‌گذاری شده است.

با استفاده از کتابخانه Model Alignment، الگوهای درخواستی را برای Gemma انتخاب کنید

Google Colab را راه اندازی کنید

این کتابخانه از دو گردش کار برای به روز رسانی خودکار الگوهای درخواست پشتیبانی می کند:

  1. به روز رسانی های تکراری از اصول . این گردش کار از یک LLM برای تقطیر دستورالعمل‌ها از نقدهای غیرمستقیم خروجی مدل یا از ویرایش‌های مستقیم خروجی مدل استفاده می‌کند. می‌توانید به طور مکرر یک یا چند دستورالعمل را قبل از ارسال به LLM ایجاد کنید، که الگوی درخواستی را برای رعایت آن دستورالعمل‌ها به‌روزرسانی می‌کند. شما همچنین می توانید دستورالعمل ها را به صورت دستی تنظیم کنید و آنها را در کنار دستورالعمل های تقطیر شده با LLM قرار دهید.
  2. نقد مستقیم خروجی های مدل . این گردش کار بازخورد شما را در مورد کل خروجی مدل می‌گیرد و آن را به همراه خروجی اعلان و مدل، مستقیماً به LLM می‌دهد تا یک الگوی درخواستی به‌روز شده تولید کند.

این دو گردش کار ممکن است هر دو برای برنامه شما مفید باشند. معاوضه قابل توجه وجود دستورالعمل‌هایی است که می‌تواند یک مصنوع فرآیندی مفید و ملموس باشد که می‌تواند به اطلاع‌رسانی، برای مثال، رویکرد شما به شفافیت کمک کند.

نمودار جریان تراز مدل

شکل 1. این فلوچارت نشان می دهد که کجا و چگونه دو جریان کار کتابخانه Model Alignment برای فعال کردن به روز رسانی های دستورالعمل محور یا مستقیم به الگوهای درخواستی شما از هم جدا می شوند. توجه داشته باشید که این فرآیند تکراری است و این گردش‌های کاری متقابلاً انحصاری نیستند، می‌توانید در هر زمان بین آنها جابجا شوید.

نوت بوک Colab را بررسی کنید که از Gemini برای تراز کردن دستورات Gemma 2 با استفاده از هر دو گردش کار استفاده می کند.

تراز در Vertex AI Studio

استودیوی Vertex AI Google یک ویژگی «تصحیح سریع» را بر اساس گردش کار مستقیم از کتابخانه منبع باز Model Alignment اضافه کرده است تا ابزارهای تألیف، اجرا، ارزیابی و مقایسه آن را تحسین کند.

پس از اجرای یک درخواست، می‌توانید بازخوردی در مورد روش‌هایی ارائه دهید که مدل باید متفاوت رفتار کند، و Vertex AI Studio از Gemini برای پیش‌نویس بازنویسی استفاده می‌کند. می توانید تغییرات پیشنهادی را بپذیرید و با کلیک یک دکمه دستور به روز شده را مجدداً اجرا کنید یا بازخورد خود را به روز کنید و از Gemini یک نامزد دیگر بخواهید.

تراز مدل در Vertex AI Studio

شکل 2. ویژگی "تصفیه اعلان" Vertex AI Studio که برای به روز رسانی یک درخواست بر اساس بازخورد کاربر استفاده می شود.

تراز مدل را برای خودتان کاوش کنید:

  • این نوت بوک Colab را اجرا کنید که از Gemini برای تراز کردن اعلان های مختلف برای مدل Gemma 2 وزن باز ما با استفاده از هر دو روش تراز استفاده می کند.
  • ویژگی هم‌ترازی مدل «Refine Prompt» را در Vertex AI Studio امتحان کنید.