VISION_AI
Revolucionando a navegação para pessoas com deficiência visual.
O que faz?
O Vision_AI é um sistema de orientação por IA projetado para fornecer a pessoas cegas feedback e instruções em áudio em tempo real com base no ambiente e nas necessidades delas. Usando IA generativa e visão computacional de última geração, o sistema captura e processa imagens e sons do ambiente para oferecer assistência abrangente. O processo automatizado inclui detecção e evitação de obstáculos em tempo real e integração com dispositivos vestíveis, permitindo que pessoas com deficiência visual viajem de forma independente e segura, além de acessar informações e serviços com mais facilidade. Stack de tecnologia:
- **IA generativa (GEMINI) PARA PROCESSAMENTO DE IMAGENS**
- **HTML/CSS**
- **API Depth Sensing, APIs de reconhecimento de fala, bibliotecas de conversão de texto em fala**
- **Firebase**
- **Integração de bastão para cegos usando o módulo ESP32**
- **Integração com óculos inteligentes**
**COMO USAMOS A API GEMINI:**
A API Gemini permite a transmissão contínua de dados do sensor do LiDAR e dos módulos da câmera para a unidade de processamento de IA. Isso garante que a VISION_AI sempre tenha acesso às informações ambientais mais recentes, permitindo a análise e a resposta em tempo real.
Com a API Gemini, a VISION_AI integra perfeitamente a IA generativa do Google para reconhecimento de objetos e descrição de cenas. A API Gemini oferece funcionalidades essenciais para processamento de imagens, como captura de imagens, pré-processamento e extração de recursos.
Mecanismos de feedback:
Aproveitando os recursos da API Gemini, a VISION_AI oferece feedback auditivo e tátil instantâneo ao usuário.
Desenvolvido com
- Web/Chrome
- Firebase
Equipe
Por
VISION_AI
De
Índia