| Nome: | Descrição: | Tamanho: | Formato: | |
|---|---|---|---|---|
| 7.42 MB | Adobe PDF |
Autores
Orientador(es)
Resumo(s)
Millions of individuals rely on Sign Language as their primary mode of communication
each day. Despite this, the community encounters substantial barriers in interacting with
non-Sign Language users, contributing to their exclusion within society. This situation brings
issues even in the more basic aspects of life, such as obtaining medical services or pursuing
educational opportunities, highlighting the pressing challenges they face.
Historically, the majority of research in this field has predominantly concentrated on man-
ual gestures, often overlooking the critical role of facial expressions in conveying grammatical
nuances. Our work seeks to bridge this gap by evaluating the efficacy of various methodolo-
gies across the diverse spectrum of Sign Languages globally established to Portuguese Sign
Language.
In this thesis, we implement the first facial recognition models (CNN and SqueezeNet)
for Portuguese Sign Language, marking a significant advancement in the domain of LGP
communication.
This framework holds the potential to motivate future investigations within this linguistic
area, as well as to enhance the integration of facial expressions with manual signs. This
integrated approach aspires to develop a comprehensive model capable of significantly
enriching the communication landscape for the deaf and hard-of-hearing community, thereby
making a substantial impact on their lives.
Milhões de pessoas dependem da Língua Gestual como principal meio de comunicação. Apesar disso, esta comunidade enfrenta barreiras significativas na interação com quem não usa a linguagem gestual, contribuindo para um aumento de exclusão destes indivíduos na sociedade. Esta situação cria adversidades em aspectos essenciais da vida, como a obtenção de serviços médicos ou a prossecução de oportunidades académicas, evidenciando os desafios que enfrentam. Historicamente, a maioria das pesquisas neste campo concentrou-se predominantemente nos gestos manuais, muitas vezes subestimando o papel crítico das expressões faciais na transmissão de nuances gramaticais. O nosso trabalho procura colmatar esta lacuna, avaliando a eficácia de várias metodologias em todo o diverso espectro de Línguas Gestuais globalmente estabelecidas, desta vez para a Língua Gestual Portuguesa. Nesta tese, implementamos os primeiros modelos (CNN and SqueezeNet) de reconhe- cimento de expressões faciais para a Língua Gestual Portuguesa, marcando um avanço significativo nesta mesma linguagem. A estrutura que propomos detém o potencial de motivar futuras investigações nesta área linguística, bem como de aprimorar a integração de expressões faciais com sinais manuais. Esta abordagem integrada aspira a desenvolver um modelo abrangente capaz de enriquecer significativamente a paisagem comunicativa da comunidade surda e com deficiência auditiva, impactando substancialmente as suas vidas.
Milhões de pessoas dependem da Língua Gestual como principal meio de comunicação. Apesar disso, esta comunidade enfrenta barreiras significativas na interação com quem não usa a linguagem gestual, contribuindo para um aumento de exclusão destes indivíduos na sociedade. Esta situação cria adversidades em aspectos essenciais da vida, como a obtenção de serviços médicos ou a prossecução de oportunidades académicas, evidenciando os desafios que enfrentam. Historicamente, a maioria das pesquisas neste campo concentrou-se predominantemente nos gestos manuais, muitas vezes subestimando o papel crítico das expressões faciais na transmissão de nuances gramaticais. O nosso trabalho procura colmatar esta lacuna, avaliando a eficácia de várias metodologias em todo o diverso espectro de Línguas Gestuais globalmente estabelecidas, desta vez para a Língua Gestual Portuguesa. Nesta tese, implementamos os primeiros modelos (CNN and SqueezeNet) de reconhe- cimento de expressões faciais para a Língua Gestual Portuguesa, marcando um avanço significativo nesta mesma linguagem. A estrutura que propomos detém o potencial de motivar futuras investigações nesta área linguística, bem como de aprimorar a integração de expressões faciais com sinais manuais. Esta abordagem integrada aspira a desenvolver um modelo abrangente capaz de enriquecer significativamente a paisagem comunicativa da comunidade surda e com deficiência auditiva, impactando substancialmente as suas vidas.
Descrição
Palavras-chave
Sign Language Recognition Facial expressions Portuguese Sign Language
