هوش مصنوعی را در تلفن همراه، وب و برنامه های جاسازی شده مستقر کنید

  • روی دستگاه

    تأخیر را کاهش دهید. آفلاین کار کنید داده های خود را محلی و خصوصی نگه دارید.

  • کراس پلتفرم

    همان مدل را در اندروید، iOS، وب و جاسازی شده اجرا کنید.

  • چند چارچوبی

    سازگار با مدل های JAX، Keras، PyTorch و TensorFlow.

  • پشته لبه هوش مصنوعی کامل

    چارچوب های انعطاف پذیر، راه حل های کلید در دست، شتاب دهنده های سخت افزاری

راه حل های آماده و چارچوب های انعطاف پذیر

APIهای کم کد برای کارهای رایج هوش مصنوعی

APIهای چند پلتفرمی برای مقابله با وظایف متداول هوش مصنوعی، بینایی، نوشتاری و صوتی.

با وظایف MediaPipe شروع کنید

استقرار مدل های سفارشی در پلتفرم های مختلف

مدل‌های JAX، Keras، PyTorch، و TensorFlow را در Android، iOS، وب و دستگاه‌های جاسازی شده، بهینه‌سازی شده برای ML سنتی و هوش مصنوعی مولد، اجرا کنید.

با LiteRT شروع کنید
ویژگی 2

چرخه های توسعه را با تجسم کوتاه کنید

تبدیل مدل خود را از طریق تبدیل و کوانتیزه کردن تجسم کنید. نقاط مهم را با همپوشانی نتایج معیارها رفع اشکال کنید.

با Model Explorer شروع کنید
ویژگی 1

خطوط لوله سفارشی برای ویژگی های پیچیده ML بسازید

با زنجیر کردن چندین مدل ML به همراه منطق پردازش قبل و بعد، وظیفه خود را بسازید. خطوط لوله تسریع شده (GPU & NPU) را بدون مسدود کردن CPU اجرا کنید.

با MediaPipe Framework شروع کنید
ویژگی 2

ابزارها و چارچوب هایی که برنامه های Google را تقویت می کنند

پشته لبه هوش مصنوعی کامل را با محصولات در هر سطح کاوش کنید - از APIهای کم کد گرفته تا کتابخانه‌های شتاب ویژه سخت‌افزار.

وظایف MediaPipe

به سرعت ویژگی‌های هوش مصنوعی را در برنامه‌های تلفن همراه و وب با استفاده از APIهای کم‌کد برای کارهای متداول شامل هوش مصنوعی، بینایی رایانه، متن و صدا ایجاد کنید.

هوش مصنوعی مولد

با استفاده از APIهای آماده، مدل‌های زبان و تصویر را مستقیماً در برنامه‌های خود ادغام کنید.

چشم انداز

طیف وسیعی از وظایف بینایی را که شامل تقسیم‌بندی، طبقه‌بندی، تشخیص، تشخیص و نشانه‌های بدن می‌شود، کاوش کنید.

متن و صوت

متن و صدا را در بسیاری از دسته‌ها از جمله زبان، احساسات و دسته‌های سفارشی خود طبقه‌بندی کنید.

چارچوب MediaPipe

یک چارچوب سطح پایین مورد استفاده برای ساخت خطوط لوله ML شتاب‌دار با کارایی بالا، که اغلب شامل چندین مدل ML همراه با پردازش قبل و بعد است.

LiteRT

مدل‌های هوش مصنوعی را که در هر چارچوبی در تلفن‌های همراه، وب و میکروکنترلرها با شتاب ویژه سخت‌افزاری بهینه‌سازی شده ایجاد شده‌اند، مستقر کنید.

چند چارچوبی

مدل‌های JAX، Keras، PyTorch و TensorFlow را برای اجرا در لبه تبدیل کنید.

کراس پلتفرم

دقیقاً همان مدل را روی اندروید، iOS، وب و میکروکنترلرها با SDK های بومی اجرا کنید.

سبک و سریع

زمان اجرا کارآمد LiteRT تنها چند مگابایت طول می کشد و شتاب مدل را در سراسر CPU، GPU و NPU ممکن می کند.

کاوشگر مدل

مدل های خود را بصری کاوش، اشکال زدایی و مقایسه کنید. معیارهای عملکرد و اعداد را برای مشخص کردن نقاط مهم مشکل‌ساز پوشش دهید.