راهنمای جاسازی متن، راهنمای جاسازی متن

وظیفه MediaPipe Text Embedder به شما امکان می دهد یک نمایش عددی از داده های متنی ایجاد کنید تا معنای معنایی آن را دریافت کنید. این قابلیت اغلب برای مقایسه شباهت معنایی دو قطعه متن با استفاده از تکنیک های مقایسه ریاضی مانند شباهت کسینوس استفاده می شود. این وظیفه بر روی داده‌های متنی با مدل یادگیری ماشین (ML) عمل می‌کند و نمایش عددی داده‌های متنی را به‌عنوان فهرستی از بردارهای ویژگی با ابعاد بالا، که به‌عنوان بردارهای جاسازی نیز شناخته می‌شوند، به صورت ممیز شناور یا کوانتیزه شده، خروجی می‌دهد.

آن را امتحان کنید!

شروع کنید

استفاده از این کار را با دنبال کردن یکی از این راهنماهای پیاده سازی برای پلتفرم هدف خود شروع کنید. این راهنماهای مخصوص پلتفرم شما را از طریق اجرای اساسی این کار، از جمله یک مدل توصیه شده، و نمونه کد با گزینه های پیکربندی توصیه شده، راهنمایی می کنند:

جزئیات کار

این بخش قابلیت ها، ورودی ها، خروجی ها و گزینه های پیکربندی این کار را شرح می دهد.

امکانات

  • پردازش متن ورودی - از توکن‌سازی خارج از نمودار برای مدل‌های بدون نشانه‌سازی درون گراف پشتیبانی می‌کند.
  • تعبیه محاسبات شباهت - تابع ابزار داخلی برای محاسبه شباهت کسینوس بین دو بردار ویژگی.
  • Quantization - از کوانتیزه‌سازی اسکالر برای بردارهای ویژگی پشتیبانی می‌کند.
ورودی های وظیفه خروجی های وظیفه
Text Embedder نوع داده ورودی زیر را می پذیرد:
  • رشته
Text Embedder لیستی از جاسازی‌ها شامل موارد زیر را خروجی می‌دهد:
  • جاسازی: خود بردار ویژگی، چه به صورت ممیز شناور و چه به صورت اسکالر کوانتیزه شده است.
  • نمایه سر: نمایه سر که این تعبیه را ایجاد کرده است.
  • نام سر (اختیاری): نام سر که این تعبیه را ایجاد کرده است.

گزینه های پیکربندی

این کار دارای گزینه های پیکربندی زیر است:

نام گزینه شرح محدوده ارزش مقدار پیش فرض
l2_normalize آیا باید بردار ویژگی بازگشتی را با نرمال L2 عادی سازی کرد. فقط در صورتی از این گزینه استفاده کنید که مدل از قبل دارای یک L2_NORMALIZATION TFLite Op بومی نباشد. در بیشتر موارد، این قبلاً وجود دارد و بنابراین عادی سازی L2 از طریق استنتاج TFLite بدون نیاز به این گزینه حاصل می شود. Boolean False
quantize اینکه آیا تعبیه برگشتی باید از طریق کوانتیزه کردن اسکالر به بایت تبدیل شود یا خیر. تعبیه‌ها به طور ضمنی واحد هنجار فرض می‌شوند و بنابراین هر بعد تضمین می‌شود که مقداری در [-1.0، 1.0] داشته باشد. اگر اینطور نیست از گزینه l2_normalize استفاده کنید. Boolean False

مدل ها

هنگامی که شما شروع به توسعه با این کار می کنید، یک مدل پیش فرض و توصیه شده را ارائه می دهیم.

این مدل از معماری رمزگذار دوگانه استفاده می کند و بر روی مجموعه داده های مختلف پرسش و پاسخ آموزش داده شده است.

جفت جمله زیر را در نظر بگیرید:

  • ("این یک سفر جذاب و اغلب تاثیرگذار است"، "چه سفر عالی و خارق العاده ای")
  • ("من تلفنم را دوست دارم"، "از تلفنم متنفرم")
  • ("این رستوران یک ترفند عالی دارد"، "ما باید جزئیات برنامه خود را دوباره بررسی کنیم")

جاسازی‌های متن در دو جفت اول شباهت کسینوس بالاتری نسبت به جاسازی‌های جفت سوم دارند، زیرا دو جفت جملات اول به ترتیب موضوع مشترک «احساس سفر» و «نظر تلفن» دارند در حالی که جفت جملات سوم دارای یک موضوع مشترک هستند. یک موضوع مشترک را به اشتراک نگذارید

توجه داشته باشید که اگرچه دو جمله در جفت دوم دارای احساسات متضاد هستند، اما به دلیل اشتراک در موضوع مشترک دارای امتیاز شباهت بالایی هستند.

نام مدل شکل ورودی نوع کوانتیزاسیون نسخه ها
رمزگذار جملات جهانی رشته، رشته، رشته هیچکدام (float32) آخرین

معیارهای وظیفه

در اینجا معیارهای کار برای کل خط لوله بر اساس مدل های از پیش آموزش دیده بالا آمده است. نتیجه تأخیر، متوسط ​​تأخیر پیکسل 6 با استفاده از CPU / GPU است.

نام مدل تاخیر CPU تاخیر GPU
رمزگذار جملات جهانی 18.21 میلی‌ثانیه -
،

وظیفه MediaPipe Text Embedder به شما امکان می دهد یک نمایش عددی از داده های متنی ایجاد کنید تا معنای معنایی آن را دریافت کنید. این قابلیت اغلب برای مقایسه شباهت معنایی دو قطعه متن با استفاده از تکنیک های مقایسه ریاضی مانند شباهت کسینوس استفاده می شود. این وظیفه بر روی داده‌های متنی با مدل یادگیری ماشین (ML) عمل می‌کند و نمایش عددی داده‌های متنی را به‌عنوان فهرستی از بردارهای ویژگی با ابعاد بالا، که به‌عنوان بردارهای جاسازی نیز شناخته می‌شوند، به صورت ممیز شناور یا کوانتیزه شده، خروجی می‌دهد.

آن را امتحان کنید!

شروع کنید

استفاده از این کار را با دنبال کردن یکی از این راهنماهای پیاده سازی برای پلتفرم هدف خود شروع کنید. این راهنماهای مخصوص پلتفرم شما را از طریق اجرای اساسی این کار، از جمله یک مدل توصیه شده، و نمونه کد با گزینه های پیکربندی توصیه شده، راهنمایی می کنند:

جزئیات کار

این بخش قابلیت ها، ورودی ها، خروجی ها و گزینه های پیکربندی این کار را شرح می دهد.

امکانات

  • پردازش متن ورودی - از توکن‌سازی خارج از نمودار برای مدل‌های بدون نشانه‌سازی درون گراف پشتیبانی می‌کند.
  • تعبیه محاسبات شباهت - تابع ابزار داخلی برای محاسبه شباهت کسینوس بین دو بردار ویژگی.
  • Quantization - از کوانتیزه‌سازی اسکالر برای بردارهای ویژگی پشتیبانی می‌کند.
ورودی های وظیفه خروجی های وظیفه
Text Embedder نوع داده ورودی زیر را می پذیرد:
  • رشته
Text Embedder لیستی از جاسازی‌ها شامل موارد زیر را خروجی می‌دهد:
  • جاسازی: خود بردار ویژگی، چه به صورت ممیز شناور و چه به صورت اسکالر کوانتیزه شده است.
  • نمایه سر: نمایه سر که این تعبیه را ایجاد کرده است.
  • نام سر (اختیاری): نام سر که این تعبیه را ایجاد کرده است.

گزینه های پیکربندی

این کار دارای گزینه های پیکربندی زیر است:

نام گزینه شرح محدوده ارزش مقدار پیش فرض
l2_normalize آیا باید بردار ویژگی بازگشتی را با نرمال L2 عادی سازی کرد. فقط در صورتی از این گزینه استفاده کنید که مدل از قبل دارای یک L2_NORMALIZATION TFLite Op بومی نباشد. در بیشتر موارد، این قبلاً وجود دارد و بنابراین عادی سازی L2 از طریق استنتاج TFLite بدون نیاز به این گزینه حاصل می شود. Boolean False
quantize اینکه آیا تعبیه برگشتی باید از طریق کوانتیزه کردن اسکالر به بایت تبدیل شود یا خیر. تعبیه‌ها به طور ضمنی واحد هنجار فرض می‌شوند و بنابراین هر بعد تضمین می‌شود که مقداری در [-1.0، 1.0] داشته باشد. اگر اینطور نیست از گزینه l2_normalize استفاده کنید. Boolean False

مدل ها

هنگامی که شما شروع به توسعه با این کار می کنید، یک مدل پیش فرض و توصیه شده را ارائه می دهیم.

این مدل از معماری رمزگذار دوگانه استفاده می کند و بر روی مجموعه داده های مختلف پرسش و پاسخ آموزش داده شده است.

جفت جمله زیر را در نظر بگیرید:

  • ("این یک سفر جذاب و اغلب تاثیرگذار است"، "چه سفر عالی و خارق العاده ای")
  • ("من تلفنم را دوست دارم"، "از تلفنم متنفرم")
  • ("این رستوران یک ترفند عالی دارد"، "ما باید جزئیات برنامه خود را دوباره بررسی کنیم")

جاسازی‌های متن در دو جفت اول شباهت کسینوس بالاتری نسبت به جاسازی‌های جفت سوم دارند، زیرا دو جفت جملات اول به ترتیب موضوع مشترک «احساس سفر» و «نظر تلفن» دارند در حالی که جفت جملات سوم دارای یک موضوع مشترک هستند. یک موضوع مشترک را به اشتراک نگذارید

توجه داشته باشید که اگرچه دو جمله در جفت دوم دارای احساسات متضاد هستند، اما به دلیل اشتراک در موضوع مشترک دارای امتیاز شباهت بالایی هستند.

نام مدل شکل ورودی نوع کوانتیزاسیون نسخه ها
رمزگذار جملات جهانی رشته، رشته، رشته هیچکدام (float32) آخرین

معیارهای وظیفه

در اینجا معیارهای کار برای کل خط لوله بر اساس مدل های از پیش آموزش دیده بالا آمده است. نتیجه تأخیر، متوسط ​​تأخیر پیکسل 6 با استفاده از CPU / GPU است.

نام مدل تاخیر CPU تاخیر GPU
رمزگذار جملات جهانی 18.21 میلی‌ثانیه -