VISION_AI

Révolutionner la navigation pour les malvoyants

Description

Vision_AI est un système de guidage basé sur l'IA conçu pour fournir aux personnes non voyantes des commentaires et des instructions audio en temps réel en fonction de leur environnement et de leurs besoins. Grâce à l'IA générative et à la vision par ordinateur de pointe, le système capture et traite les images et les sons de l'environnement pour offrir une assistance complète. Ce processus automatisé comprend la détection et l'évitement des obstacles en temps réel, ainsi que l'intégration aux accessoires connectés, ce qui permet aux personnes non voyantes de se déplacer de manière autonome et sécurisée, tout en accédant plus facilement aux informations et aux services. Pile technologique:
- **IA générative (GEMINI) POUR LE TRAITEMENT DES IMAGES**
- **HTML/CSS**
- **API de détection de profondeur, API de reconnaissance vocale, bibliothèques de synthèse vocale**
- **Firebase**
- **Intégration de la canne blanche à l'aide du module ESP32**
- **Intégration aux lunettes connectées**
**COMMENT NOUS AVONS UTILISÉ L'API GEMINI :
L'API Gemini permet de diffuser en continu les données des capteurs du module LiDAR et de la caméra vers l'unité de traitement de l'IA. Ainsi, VISION_AI a toujours accès aux dernières informations environnementales, ce qui permet une analyse et une réponse en temps réel.
Grâce à l'API Gemini, VISION_AI intègre parfaitement l'IA générative de Google pour la reconnaissance d'objets et la description de scènes. L'API Gemini fournit des fonctionnalités essentielles pour le traitement des images, telles que la capture d'images, le prétraitement et l'extraction de caractéristiques.
Mécanismes de rétroaction
:en exploitant les fonctionnalités de l'API Gemini, VISION_AI fournit à l'utilisateur un retour auditif et tactile instantané.

Conçu avec

  • Web/Chrome
  • Firebase

Équipe

Par

VISION_AI

De

Inde