VISION_AI

Revolucionando a navegação para pessoas com deficiência visual.

O que faz?

O Vision_AI é um sistema de orientação por IA projetado para fornecer a pessoas cegas feedback e instruções em áudio em tempo real com base no ambiente e nas necessidades delas. Usando IA generativa e visão computacional de última geração, o sistema captura e processa imagens e sons do ambiente para oferecer assistência abrangente. O processo automatizado inclui detecção e evitação de obstáculos em tempo real e integração com dispositivos vestíveis, permitindo que pessoas com deficiência visual viajem de forma independente e segura, além de acessar informações e serviços com mais facilidade. Stack de tecnologia:
- **IA generativa (GEMINI) PARA PROCESSAMENTO DE IMAGENS**
- **HTML/CSS**
- **API Depth Sensing, APIs de reconhecimento de fala, bibliotecas de conversão de texto em fala**
- **Firebase**
- **Integração de bastão para cegos usando o módulo ESP32**
- **Integração com óculos inteligentes**
**COMO USAMOS A API GEMINI:**
A API Gemini permite a transmissão contínua de dados do sensor do LiDAR e dos módulos da câmera para a unidade de processamento de IA. Isso garante que a VISION_AI sempre tenha acesso às informações ambientais mais recentes, permitindo a análise e a resposta em tempo real.
Com a API Gemini, a VISION_AI integra perfeitamente a IA generativa do Google para reconhecimento de objetos e descrição de cenas. A API Gemini oferece funcionalidades essenciais para processamento de imagens, como captura de imagens, pré-processamento e extração de recursos.
Mecanismos de feedback:
Aproveitando os recursos da API Gemini, a VISION_AI oferece feedback auditivo e tátil instantâneo ao usuário.

Desenvolvido com

  • Web/Chrome
  • Firebase

Equipe

Por

VISION_AI

De

Índia