Notícias
Avatar 3D do VLibras é ampliado e passa a representar emoções
Pesquisadores do Centro de Informática da UFPB conseguiram adaptar o avatar 3D do VLibras, conjunto de ferramentas computacionais de código aberto que traduz conteúdos digitais (texto, áudio e vídeo) para Língua Brasileira de Sinais (Libras), para que identifique e performe emoções.
Essa experimental inserção de expressões faciais e corporais para emoções como neutra, alegria, tristeza, raiva, medo, nojo e surpresa foi capaz de melhorar a tradução, tornando computadores, celulares e plataformas web muito mais acessíveis para pessoas surdas.
“Foi feita uma adaptação parcial de ferramentas da Suíte VLibras, usando um dicionário resumido, para o qual foram animados sinais para todos esses tipos de emoções identificadas”, explica o Prof. Rostand Costa, orientador do trabalho.
O estudo foi desenvolvido no Laboratório de Aplicações de Vídeo Digital, do Centro de Informática (CI), no campus I, em João Pessoa, por Vinícius Veríssimo da Silva, entre março de 2019 e fevereiro deste ano, como parte de sua pesquisa de mestrado no âmbito do Programa de Pós-graduação em Informática da UFPB.
Ele detalha que foi investigado o uso da análise de emoções no conteúdo traduzido para refletir o sentimento predominante na mensagem, dentro de um conjunto pré-determinado, como alegria, tristeza, raiva etc. a fim de reproduzir tal sentimento na expressão do avatar 3D, no momento da renderização dos sinais.
Segundo o Prof. Rostand Costa, tradutores automáticos de línguas orais para línguas de sinais são ferramentas de tecnologia assistiva voltadas a proporcionar mais autonomia, independência e qualidade de vida para a comunidade surda.
O uso desses tradutores automáticos já é reconhecido como uma alternativa viável para que a população surda tenha mais acesso a informações, sobretudo conteúdo digital, e, principalmente, quando um intérprete humano não está disponível.
Entretanto, alguns desafios no uso de tal tecnologia assistiva ainda persistem e um ponto amplamente criticado é a falta de expressões faciais e corporais adequadas no avatar 3D normalmente utilizado nessas ferramentas.
De acordo com o orientador do trabalho, a análise de emoções em textos é uma área de pesquisa muito ativa atualmente. “Nosso estudo busca aplicar os avanços nessa área para tentar melhorar a eficácia e aceitação da sinalização feita por avatares 3D”.
Com a pesquisa concluída e viabilidade e aplicabilidade da proposta confirmadas, os resultados foram disponibilizados para a comunidade acadêmica em artigo publicado na nona edição do periódico da UFPB Comunicações em informática e nos anais 2020 do XXVI Simpósio Brasileiro de Multimídia e Web.
Conforme o Censo 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), há 10 milhões de brasileiros com algum nível de deficiência auditiva. Esse é o público que poderá ser beneficiado com melhorias em tecnologias assistivas como a proposta nesta pesquisa da UFPB.
O VLibras é fruto de parceria entre a UFPB, o Ministério da Economia e outros órgãos públicos. Ele realiza cerca de 100 mil traduções por dia. Ao todo, possuiu 70 mil frases treinadas por Inteligência Artificial e mais de 17 mil sinais em sua biblioteca.
Mais informações sobre a proposta de tradutor automático com análise de emoções de textos em português brasileiro para Libras podem ser obtidas por meio do contato de e-mail do professor Rostand Costa: rostand@lavid.ufpb.br
FOTO: Comunicações em Informática v.5, n.1, jun/2021
FONTE: Assessoria de Comunicação do CI e ASCOM da UFPB