Deep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva

dc.contributor.advisor1Santana, Adriano César
dc.contributor.referee1Santana, Adriano César
dc.contributor.referee1Castro, Marcelo Stehling de
dc.contributor.referee1Nerys, José Wilson Lima
dc.creatorPedrosa, Samuel França da Costa
dc.date.accessioned2025-01-03T12:58:26Z
dc.date.available2025-01-03T12:58:26Z
dc.date.issued2024-12-12
dc.description.abstractCommunication is essential for social inclusion, yet the lack of linguistic accessibility often marginalizes specific groups, such as the Brazilian deaf community. This project proposes the use of deep learning to recognize signals from Brazilian Sign Language (LIBRAS) with the aim of translating them, through model predictions, into written Portuguese. Initially, videos of people signing were collected to form a dataset, which was subjected to processes of extraction and mapping of key body points using open-source tools provided by MediaPipe. The extracted data was processed and used as input for two designed models: one based on Long Short-Term Memory (LSTM) and another on Transformers. The study revealed that model performance is influenced by the alignment methods applied during data processing. The Transformer demonstrated superior results in terms of accuracy and generalization, albeit with higher computational demands. Conversely, the LSTM model showed satisfactory performance in terms of computational efficiency but exhibited limitations as classification complexity increased. One of the primary challenges was the difficulty in building a rich and robust dataset, due to the scarcity of available content for collection and extraction, especially when compared to other natural languages, whether textual or spoken. This limitation partially restricted the models' generalization capabilities. Despite these challenges, the project achieved promising results, suggesting that with enhanced and expanded datasets, its application as assistive technology can be extended to more complex scenarios with broader applicability. This study represents an advancement in the use of deep learning to promote inclusion and accessibility for the Brazilian deaf community.
dc.description.resumoA comunicação é fundamental para a inclusão social, mas a ausência de acessibilidade linguística frequentemente marginaliza grupos específicos, como a comunidade surda brasileira. Este projeto propõe a utilização de deep learning (aprendizado profundo) para o reconhecimento de sinais pertencentes à Língua Brasileira de Sinais (LIBRAS), com o objetivo de traduzi-los, por meio da predição dos modelos, para o português escrito. Inicialmente, foram coletados vídeos de pessoas sinalizando para a formação de uma base de dados, que foi submetida a processos de extração e mapeamento de pontos-chave corporais, utilizando ferramentas de código aberto disponibilizadas pelo MediaPipe. Os dados extraídos foram tratados e utilizados como entrada em dois modelos arquitetados: um baseado em Long Short-Term Memory (LSTM) e outro em Transformers. O projeto revelou que o desempenho dos modelos é influenciado pelos métodos de alinhamento empregados no tratamento dos dados, destacando que o Transformer apresentou resultados superiores em termos de acurácia e generalização, embora com maior demanda computacional. Por outro lado, o modelo LSTM demonstrou desempenho satisfatório em termos de custo computacional, mas apresentou limitações à medida em que a complexidade da classificação aumenta. Um dos principais desafios enfrentados foi a dificuldade em formar uma base de dados rica e robusta, devido à escassez de conteúdo disponível para coleta e extração, especialmente quando comparada a outras linguagens naturais textuais ou oralizadas, restringindo a capacidade de generalização dos modelos. Apesar desses desafios, o projeto obteve resultados promissores, indicando que, com o aprimoramento e a expansão da base de dados, sua aplicação como tecnologia assistiva pode ser ampliada para cenários mais complexos e de maior aplicabilidade. Este estudo representa um avanço na utilização de aprendizado profundo para promover inclusão e acessibilidade à comunidade surda brasileira.
dc.identifier.citationPEDROSA, Samuel França da Costa. Deep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva. 2024. 30 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Escola de Engenharia Elétrica, Mecânica e de Computação, Universidade Federal de Goiás, Goiânia, 2024.
dc.identifier.urihttp://repositorio.bc.ufg.br//handle/ri/26137
dc.language.isopor
dc.publisherUniversidade Federal de Goiás
dc.publisher.countryBrasil
dc.publisher.courseEngenharia de Computação (RMG)
dc.publisher.departmentEscola de Engenharia Elétrica, Mecânica e de Computação - EMC (RMG)
dc.publisher.initialsUFG
dc.rightsAcesso Aberto
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectDeep learning
dc.subjectLandmarks
dc.subjectReconhecimento de sinais
dc.subjectTecnologia assistiva
dc.subjectAssistive technology
dc.subjectLIBRAS
dc.subjectSign recognition
dc.titleDeep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva
dc.typeTrabalho de conclusão de curso de graduação (TCCG)

Arquivos

Pacote Original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
TCCG - Engenharia de Computação - Samuel França da Costa Pedrosa - 2024.pdf
Tamanho:
2.63 MB
Formato:
Adobe Portable Document Format

Licença do Pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
1.71 KB
Formato:
Item-specific license agreed upon to submission
Descrição: