“A presentamos um sistema de tecnologia vestível multimodal centrado no utilizador que melhora o uso combinando inovações de ‘software’ e ‘hardware'”, disse à revista o líder da equipa de investigadores que criou a tecnologia de assistência visual vestível que recebe instruções através de comandos de voz, Leilei Gu.
Este sistema de sensores inteligentes e de tecnologias relacionadas com próteses visuais e visão artificial que foi desenvolvido pelos cientistas da universidade chinesa baseia-se num algoritmo de Inteligência Artificial (IA) que processa vídeos de uma câmara embutida nos óculos, usados para determinar uma rota sem obstáculos.
Através de auriculares de condução óssea, sinais auditivos e comandos sobre o ambiente à frente do utilizador podem ser-lhe enviados, sendo que os auriculares enviam o som através dos ossos do crânio, deixando os ouvidos livres para ouvir outros sons no ambiente ao redor.
Também foram criadas peles artificiais elásticas para os pulsos, que enviam sinais de vibração ao utilizador para orientar a direção do movimento e evitar objetos laterais.
O dispositivo foi testado com robôs humanoides e participantes cegos e com baixa visão em ambientes virtuais e reais e, segundo os investigadores, revelou melhorias significativas em tarefas de mobilidade, como evitar obstáculos ao mover-se num labirinto e alcançar e agarrar um objeto.
Os resultados da investigação sugerem que a integração dos sentidos visual, auditivo e tátil pode melhorar a utilização e a funcionalidade dos sistemas de assistência visual.
“Esta pesquisa abre caminho a sistemas de assistência visual fáceis de usar e oferece formas alternativas de melhorar a qualidade de vida de pessoas com deficiência visual”, concluiu.