FECHAR
Logo
Capa
A TOCAR Nome da música AUTOR

Regional

09 Ago 2021

Investigadores do Politécnico de Viana do Castelo estão a desenvolver plataforma digital de interpretação de Língua Gestual Portuguesa

Pedro Xavier

Acessibilidade

T+

T-

Contraste Contraste
Ouvir
Criar uma solução digital “mais amigável e prática” para a população surda é o objetivo do projeto IVLinG que investigadores da Escola Superior de Tecnologia e Gestão (ESTG) do Instituto Politécnico de Viana do Castelo (IPVC) começaram a desenvolver no início deste ano. Projeto tem a duração de dois anos e meio e é financiado pelo Programa Operacional Fatores de Competitividade (COMPETE).

O projeto IVLinG compreende o desenvolvimento de uma plataforma digital de interpretação de Língua Gestual Portuguesa que visa agilizar a comunicação entre a população surda e a comunidade ouvinte. “Em termos de língua gestual não há muitas soluções disponíveis e as que existem são consideradas insuficientes, pouco amigáveis e pouco práticas, já que não consideram alguns aspetos como a expressão facial”, justificou o professor e investigador da ESTG-IPVC, Luís Romero, adiantando que o objetivo é “colmatar algumas das falhas existentes nas soluções atuais e criar um sistema mais fácil para que seja adotado pelas pessoas com deficiência auditiva”.

Na base desta solução estará um intérprete virtual em tempo real de Língua Gestual Portuguesa, que irá efetuar o reconhecimento automático de gestos e expressões faciais e corporais. Estes movimentos são posteriormente traduzidos para texto e/ou áudio, sendo que a pessoa ouvinte recebe essa informação no computador. O ouvinte, por sua vez, exprime a sua resposta em linguagem natural via áudio, que é convertido em texto e traduzido para língua gestual. A resposta em Língua Gestual Portuguesa é visualizada por meio de um avatar. Este sistema de interpretação virtual terá por base a utilização de câmaras de vídeo que captam todos os movimentos da pessoa que comunica através de língua gestual.

O projeto está a ser realizado em parceria com o Centro de Computação da Universidade do Minho (UMinho) e a empresa First Solutions.  “O IPVC vai fazer a tradução da linguagem natural para língua gestual, enquanto que o parceiro vai fazer a tradução de língua gestual para linguagem natural. Depois do IPVC e da UMinho criarem a solução, o conceito e o protótipo, a empresa coloca no mercado”, explicou Luís Romero, que conta ainda com a participação do também professor e investigador da ESTG-IPVC Pedro Faria na concretização deste projeto.

Este processo de tradução envolve dois estágios principais: a tradução da linguagem natural em língua gestual representada por gestos singulares de expressão gestual denominados de glosses. Estes, por sua vez, traduzem termos e expressões definidos na Língua Gestual Portuguesa. Cada gloss tem um gesto associado e uma frase que consiste num conjunto de glosses sequenciais que representam a expressão gestual de uma frase/termo/ideia. Notar que a Língua Gestual Portuguesa tem estrutura gramatical própria, pelo que a tradução não é direta.

“Vamos tentar fazer uma solução mais completa, envolvendo a computação gráfica com o avatar, pretendendo-se que seja o mais realista possível e envolva a expressão facial e emotiva, que os sistemas atuais não usam”, referiu ainda Luís Romero, destacando que as pessoas com deficiência auditiva poderão, por exemplo, ir às compras ou até comunicar durante uma consulta médica com a ajuda desta solução.

Neste momento, já existem alguns resultados “muito preliminares”, mas a partir de setembro e outubro, com a chegada dos bolseiros, o projeto vai ser acelerado. O IVLinG conta ainda com a participação da Multisector, empresa que faz a gestão do projeto, e com a colaboração da Associação Portuguesa de Surdos (APF) e da Federação Portuguesa das Associações de Surdos (FPAS), que “vão disponibilizar professores da Língua Gestual Portuguesa para fazer a ponte e perceber se o projeto está no caminho certo”, garantiu.

Últimas Noticias

Últimos Podcasts