Notícias
Pesquisadores da UFPB adaptam avatar 3D para identificar e performar emoções
![](http://plone.ufpb.br/ufpb/contents/noticias/pesquisadores-da-ufpb-adaptam-avatar-3d-para-identificar-e-performar-emocoes/CrditoComunicaesemInformticav.5n.1jun20211.jpg)
Pesquisadores do Centro de Informática da Universidade Federal da Paraíba (UFPB) conseguiram adaptar avatar 3D do VLibras, conjunto de ferramentas computacionais de código aberto que traduz conteúdos digitais (texto, áudio e vídeo) para Língua Brasileira de Sinais (Libras), para que identifique e performe emoções.
Essa experimental inserção de expressões faciais e corporais para emoções como neutra, alegria, tristeza, raiva, medo, nojo e surpresa foi capaz de melhorar a tradução, tornando computadores, celulares e plataformas web muito mais acessíveis para pessoas surdas.
“Foi feita uma adaptação parcial de ferramentas da Suíte VLibras, usando um dicionário resumido, para o qual foram animados sinais para todos esses tipos de emoções identificadas”, explica o Prof. Rostand Costa, orientador do trabalho.
O estudo foi desenvolvido no Laboratório de Aplicações de Vídeo Digital, do Centro de Informática, no campus I, em João Pessoa, por Vinícius Veríssimo da Silva, entre março de 2019 e fevereiro deste ano, como parte de sua pesquisa de mestrado no âmbito do Programa de Pós-graduação em Informática da UFPB.
Ele detalha que foi investigado o uso da análise de emoções no conteúdo traduzido, para refletir o sentimento predominante na mensagem, dentro de um conjunto pré-determinado, como alegria, tristeza, raiva etc., a fim de reproduzir tal sentimento na expressão do avatar 3D, no momento da renderização dos sinais.
Segundo o Prof. Rostand Costa, tradutores automáticos de línguas orais para línguas de sinais são ferramentas de tecnologia assistiva voltadas a proporcionar mais autonomia, independência e qualidade de vida para a comunidade surda.
O uso desses tradutores automáticos já é reconhecido como uma alternativa viável para que a população surda tenha mais acesso a informações, sobretudo conteúdo digital, e, principalmente, quando um intérprete humano não está disponível.
Entretanto, alguns desafios no uso de tal tecnologia assistiva ainda persistem e um ponto amplamente criticado é a falta de expressões faciais e corporais adequadas no avatar 3D normalmente utilizado nessas ferramentas.
De acordo com o orientador do trabalho, a análise de emoções em textos é uma área de pesquisa muito ativa atualmente. “Nosso estudo busca aplicar os avanços nessa área para tentar melhorar a eficácia e aceitação da sinalização feita por avatares 3D”.
Com a pesquisa concluída e viabilidade e aplicabilidade da proposta confirmadas, os resultados foram disponibilizados para a comunidade acadêmica em artigo publicado na nona edição do periódico da UFPB Comunicações em informática e nos anais 2020 do XXVI Simpósio Brasileiro de Multimídia e Web.
Conforme o Censo 2010 do Instituto Brasileiro de Geografia e Estatística (IBGE), há 10 milhões de brasileiros com algum nível de deficiência auditiva. Esse é o público que poderá ser beneficiado com melhorias em tecnologias assistivas como a proposta nesta pesquisa da UFPB.
O VLibras é fruto de parceria entre a UFPB, o Ministério da Economia e outros órgãos públicos. Ele realiza cerca de 100 mil traduções por dia. Ao todo, possuiu 70 mil frases treinadas por Inteligência Artificial e mais de 17 mil sinais em sua biblioteca.
Mais informações sobre a proposta de tradutor automático com análise de emoções de textos em português brasileiro para Libras podem ser obtidas por meio do contato de e-mail do professor Rostand Costa: rostand@lavid.ufpb.br.
![PESQUISADORES DA UFPB ADAPTAM AVATAR 3D PARA IDENTIFICAR E PERFORMAR EMOÇÕES Imagem: Divulgação](http://plone.ufpb.br/ufpb/contents/noticias/pesquisadores-da-ufpb-adaptam-avatar-3d-para-identificar-e-performar-emocoes/icarogrande.png)