VISION_AI

ناوبری انقلابی برای افراد کم بینا.

کاری که انجام می دهد

Vision_AI یک سیستم راهنمایی هوش مصنوعی است که برای ارائه بازخورد صوتی و دستورالعمل‌های بی‌درنگ به افراد نابینا بر اساس محیط اطراف و نیازهایشان طراحی شده است. این سیستم با بهره گیری از هوش مصنوعی و بینایی کامپیوتری مولد پیشرفته، تصاویر و صداهای محیط را ضبط و پردازش می کند تا کمکی جامع ارائه دهد. این فرآیند خودکار شامل تشخیص و اجتناب از موانع در زمان واقعی، و یکپارچه سازی با دستگاه های پوشیدنی است که به افراد نابینا امکان می دهد به طور مستقل و ایمن سفر کنند و در عین حال به اطلاعات و خدمات راحت تر دسترسی داشته باشند. پشته فناوری:
- **هوش مصنوعی مولد (GEMINI) برای پردازش تصویر**
- **HTML/CSS**
- ** API سنجش عمق، APIهای تشخیص گفتار، کتابخانه های تبدیل متن به گفتار**
- **Firebase**
- **ادغام Blind Stick با استفاده از ماژول ESP32**
- **ادغام با عینک هوشمند**
**چگونه از GEMINI API استفاده کردیم:**
Gemini API جریان مداوم داده های حسگر را از ماژول های LiDAR و دوربین به واحد پردازش هوش مصنوعی امکان پذیر می کند. این تضمین می کند که VISION_AI همیشه به آخرین اطلاعات محیطی دسترسی داشته باشد و امکان تجزیه و تحلیل و پاسخ به موقع را فراهم کند.
از طریق Gemini API، VISION_AI به طور یکپارچه هوش مصنوعی مولد Google را برای تشخیص اشیا و شرح صحنه یکپارچه می کند. Gemini API عملکردهای ضروری را برای پردازش تصویر فراهم می کند، مانند ضبط تصویر، پیش پردازش، و استخراج ویژگی
مکانیسم های بازخورد:
VISION_AI با استفاده از قابلیت‌های Gemini API، بازخورد شنیداری و لمسی آنی را به کاربر ارائه می‌کند.

ساخته شده با

  • وب/کروم
  • Firebase

تیم

توسط

VISION_AI

از

هندوستان