Autonomia com o piscar dos olhos

Sistema de navegação a partir da leitura do movimento da pupila resgata parte da independência de indivíduos sem mobilidade. Outros projetos também envolvem a acessibilidade barata usando canos de PVC

Ana Cristina Cocolo

Imagem mostra o equipamento colocado no rosto de um homem

Equipamento rastreia o movimento ocular e substitui o joystick no comando da cadeira

Um protótipo funcional de navegação autônoma, para controlar uma cadeira de rodas motorizada a partir da identificação do movimento ocular, está sendo desenvolvido por um grupo de docentes e estudantes do Núcleo de Neuroengenharia e Computação do Instituto de Ciência e Tecnologia (ICT/Unifesp) – Campus São José dos Campos. A ideia é levar a tecnologia assistiva com inovação e baixo custo à população, contemplando as necessidades de cada indivíduo e auxiliando, principalmente, pessoas com severos problemas motores, como a tetraplegia e esclerose lateral amiotrófica (ELA).

De acordo com Henrique Alves de Amorim, professor do ICT/Unifesp e um dos coordenadores do projeto, o modelo substitui o uso do joystick (alavanca de controle de comando) por uma estrutura composta pelo sistema Eye Tracking, que rastreia o movimento ocular, um notebook, um microcontrolador Arduino (plataforma de prototipagem eletrônica de hardware livre) e circuitos amplificadores. 

Financiado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), o protótipo, segundo o pesquisador, visa atender à necessidade de mobilidade de pessoas com deficiência, tanto em ambientes internos – nos quais os movimentos da cadeira precisam ter menores velocidades e amplitudes de movimentos – quanto externos – que possibilitam maior fluidez e velocidade e necessitam de mais agilidade nas manobras, com menor demanda de comandos do usuário. 

O projeto foi um entre os dez brasileiros escolhidos para serem apresentados como tecnologias inovadoras, com potencial de startups, em evento promovido pela fundação Swissnex Brasil durante uma semana no Rio de Janeiro e uma semana na Suíça, em Lausanne e Zurique. O pedido de patente do sistema já está em andamento. 

Sistema de rastreamento e controle

Para capturar o movimento da pupila, o grupo utilizou-se do dispositivo Pupil Pro, que possui duas câmeras acopladas a uma armação que se acomoda ao rosto do usuário. Uma das câmeras é dirigida a um dos olhos para registrar as imagens da pupila e a outra é direcionada para capturar imagens do ambiente à frente. 

No projeto, como o controle de navegação é baseado somente na posição da pupila, o grupo utilizou-se apenas de uma das câmeras. “Com isso, o sistema criado torna-se mais barato, pois, além de diminuir custo de uma câmera, o processamento computacional torna-se mais rápido, uma vez que ele não precisa processar o reconhecimento do ambiente, mas apenas a imagem dos olhos”, afirma Jean Faber, professor do Departamento de Neurologia e Neurocirurgia da Escola Paulista de Medicina (EPM/Unifesp) – Campus São Paulo, que também coordena o projeto em parceria com Amorim.

Três fotos - as duas primeiras mostram a equipe de pesquisadores e a última mostra o equipamento

Acima à esquerda, os estudantes Matheus Sousa Franco e Alexandre Loos Agra, com o professor do ICT/Unifesp, Henrique Alves de Amorim
Acima à direita, Jean Faber, professor da EPM/Unifesp, que também coordena o trabalho junto com Amorim
Abaixo, Agra manobrando a cadeira com o novo sistema desenvolvido pelo grupo

O protocolo de navegação utiliza sequências de posicionamento da pupila (1-acima, 2- direita, 3- esquerda, 4- abaixo) e uma posição chamada de “zero”, que corresponde aos olhos fechados e determina o gerenciamento do início do movimento ou da parada por piscadas do olho. Assim que as imagens da pupila são captadas, elas são processadas em tempo real e convertidas em comandos de direção (frente, atrás, esquerda, direita), na velocidade pré-programada, pelo software desenvolvido pelo grupo. Os comandos interpretados pelo software são enviados para um microcontrolador ligado a um circuito de amplificação que aciona os motores da cadeira. 

“Os comandos funcionam igual a um joystick”, explica o pesquisador. “Para iniciar o movimento, o usuário da cadeira precisa olhar, por exemplo, para baixo por mais ou menos meio segundo para enviar o comando correspondente à direção ‘para frente’, e então, com uma piscada curta, aciona os motores propriamente; depois, utiliza uma nova piscada curta para parar a cadeira. Já os comandos 2 e 3, que ficam nas laterais, acionam o giro em torno do próprio eixo. É importante dizer que o controlador fica inteiramente livre para olhar para onde quiser, uma vez ativada a direção desejada”. 

De acordo com Faber, o sistema de navegação também possui um modo de segurança autônomo que auxilia no desvio de obstáculos e evita colisões ou possíveis riscos para quem está manobrando a cadeira. Três sensores instalados no apoio dos pés do usuário medem a distância entre a cadeira e a possível barreira e levam a informação como estímulos vibrotáteis gerados por minimotores fixados ao pescoço do indivíduo. 

Amorim afirma que o projeto desenvolvido pelo grupo, que envolve três estudantes de graduação do ICT/Unifesp, Alexandre Loss Agra (Engenharia Biomédica), Bruno Sales (Engenharia Biomédica) e Mateus Franco (Engenharia da Computação), além de um pós-graduando da EPM/Unifesp, Damien Depannemaecker (PPG em Neurologia e Neurociências), pode ser facilmente adaptado para qualquer cadeira motorizada, pois ele opera de forma independente ao tipo de bateria ou características elétricas dos motores. “O sistema de resposta aos comandos também pode ser alterado de acordo com as necessidades ou preferências do usuário”.

A próxima etapa, de acordo com Faber, é integrar a detecção de imagens da pupila à identificação de padrões neurais, associados a intenções do usuário, por meio da captação de sinais eletroencefalográficos (EEG), em tempo real. Além disso, um novo sistema de detecção dos movimentos da pupila está sendo também incorporado por meio de uma parceria com François Jouen, professor da École Pratique des Hautes Études (Ephe), França. “Já estamos implementando um sistema de registro de sinais eletroencefalográficos que possibilita novos graus de liberdade, ou seja, fornece ao usuário novas funções, como ligar, desligar e efetuar outros comandos da cadeira ‘apenas com o pensamento’”, diz Faber. “Já começamos a testar algumas ferramentas computacionais para identificação desses padrões neurais com ótimos resultados”. 

Cadeira de PVC

Cadeira desenvolvida em PVC

Acessibilidade barata

No Brasil, assim como as próteses, as cadeiras de rodas não são disponibilizadas pelo SUS para crianças abaixo dos 12 anos. Com foco ainda nesse público, outro projeto, orientado por Maria Elizete Kunkel e Henrique Amorim, docentes do ICT/Unifesp, em parceria com a Universidade Federal do ABC (UFABC), visa o desenvolvimento de uma cadeira de rodas motorizada de baixo custo, para crianças de 3 a 9 anos de idade.

Confeccionada inteiramente com canos de plástico de policloreto de polivinila, o famoso PVC, a cadeira também é composta por artefatos de baixo custo, leves e resistentes, como motor de limpador de para-brisa de carro, catracas e coroas de bicicletas e baterias de nobreak de computadores.

A Cadeira de Rodas Infantil Automatizada (Cria), como está sendo chamado o projeto, é tema do mestrado do engenheiro biomédico Filipe Loyola Lopes na UFABC. O protótipo possui tecnologia passível de reprodução de acordo com o conceito do it yourself (DIY) – prática de fabricar ou reparar algo por conta própria – e foi desenvolvida com base no projeto americano Opendesign (design aberto) da Open Wheelchair Foundation, ONG que constrói cadeiras nesses mesmos moldes para crianças em necessidade. Já para o sistema de controle, foi utilizada a plataforma de desenvolvimento eletrônico Arduino e um joystick de videogame. 

Lopes explica que testes baseados em normas da Associação Brasileira de Normas Técnicas (ABNT) ainda serão realizados no instituto para garantir que o produto desenvolvido ofereça a segurança necessária aos usuários.

De acordo com ele, outro aplicativo está em desenvolvimento. Com ele, a cadeira poderá ser controlada por meio do celular ou outros dispositivos móveis, utilizando a tecnologia de rede sem fio (Bluetooth). “No futuro, o controle poderá ser substituído por outros dispositivos de tecnologia assistiva, como capacete com acelerômetro, sensores de mercúrio ou sopro, entre outros”, afirma. 

“Dessa forma, o usuário terá mais autonomia, uma vez que poderá manejar a cadeira à distância e trazê-la para perto sem precisar de ajuda para realizar a própria transferência da cama para a cadeira, por exemplo”.

Outro projeto no qual Lopes também está envolvido, junto com Bruno Amarante, estudante do bacharelado em Ciência e Tecnologia do ICT/Unifesp, e Eliel Guimarães, fisioterapeuta voluntário, consiste na construção de um suporte automático usando a mesma plataforma eletrônica para que tetraplégicos acamados possam usar um tablet com uma ponteira de boca.

Artigo relacionado:

DEPANNEMAECKER, Damien T; AGRA, Alexandre L.; SALLES, Bruno A.; FRANCO, Mateus S.; JOUEN, François, AMORIM; Henrique A., FABER, Jean. Sistema de navegação para cadeirantes através do rastreamento do movimento ocular (eye-tracking). In: CONGRESSO BRASILEIRO DE ENGENHARIA BIOMÉDICA, 25., 2016, Foz do Iguaçu. Anais... Foz do Iguaçu: CBEB, 2016. p. 1478-1481. Disponível em: <http://cbeb.org.br/pt/anais-e-certificados >. Acesso em 30 mar. 2017.