Deep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva
dc.contributor.advisor1 | Santana, Adriano César | |
dc.contributor.referee1 | Santana, Adriano César | |
dc.contributor.referee1 | Castro, Marcelo Stehling de | |
dc.contributor.referee1 | Nerys, José Wilson Lima | |
dc.creator | Pedrosa, Samuel França da Costa | |
dc.date.accessioned | 2025-01-03T12:58:26Z | |
dc.date.available | 2025-01-03T12:58:26Z | |
dc.date.issued | 2024-12-12 | |
dc.description.abstract | Communication is essential for social inclusion, yet the lack of linguistic accessibility often marginalizes specific groups, such as the Brazilian deaf community. This project proposes the use of deep learning to recognize signals from Brazilian Sign Language (LIBRAS) with the aim of translating them, through model predictions, into written Portuguese. Initially, videos of people signing were collected to form a dataset, which was subjected to processes of extraction and mapping of key body points using open-source tools provided by MediaPipe. The extracted data was processed and used as input for two designed models: one based on Long Short-Term Memory (LSTM) and another on Transformers. The study revealed that model performance is influenced by the alignment methods applied during data processing. The Transformer demonstrated superior results in terms of accuracy and generalization, albeit with higher computational demands. Conversely, the LSTM model showed satisfactory performance in terms of computational efficiency but exhibited limitations as classification complexity increased. One of the primary challenges was the difficulty in building a rich and robust dataset, due to the scarcity of available content for collection and extraction, especially when compared to other natural languages, whether textual or spoken. This limitation partially restricted the models' generalization capabilities. Despite these challenges, the project achieved promising results, suggesting that with enhanced and expanded datasets, its application as assistive technology can be extended to more complex scenarios with broader applicability. This study represents an advancement in the use of deep learning to promote inclusion and accessibility for the Brazilian deaf community. | |
dc.description.resumo | A comunicação é fundamental para a inclusão social, mas a ausência de acessibilidade linguística frequentemente marginaliza grupos específicos, como a comunidade surda brasileira. Este projeto propõe a utilização de deep learning (aprendizado profundo) para o reconhecimento de sinais pertencentes à Língua Brasileira de Sinais (LIBRAS), com o objetivo de traduzi-los, por meio da predição dos modelos, para o português escrito. Inicialmente, foram coletados vídeos de pessoas sinalizando para a formação de uma base de dados, que foi submetida a processos de extração e mapeamento de pontos-chave corporais, utilizando ferramentas de código aberto disponibilizadas pelo MediaPipe. Os dados extraídos foram tratados e utilizados como entrada em dois modelos arquitetados: um baseado em Long Short-Term Memory (LSTM) e outro em Transformers. O projeto revelou que o desempenho dos modelos é influenciado pelos métodos de alinhamento empregados no tratamento dos dados, destacando que o Transformer apresentou resultados superiores em termos de acurácia e generalização, embora com maior demanda computacional. Por outro lado, o modelo LSTM demonstrou desempenho satisfatório em termos de custo computacional, mas apresentou limitações à medida em que a complexidade da classificação aumenta. Um dos principais desafios enfrentados foi a dificuldade em formar uma base de dados rica e robusta, devido à escassez de conteúdo disponível para coleta e extração, especialmente quando comparada a outras linguagens naturais textuais ou oralizadas, restringindo a capacidade de generalização dos modelos. Apesar desses desafios, o projeto obteve resultados promissores, indicando que, com o aprimoramento e a expansão da base de dados, sua aplicação como tecnologia assistiva pode ser ampliada para cenários mais complexos e de maior aplicabilidade. Este estudo representa um avanço na utilização de aprendizado profundo para promover inclusão e acessibilidade à comunidade surda brasileira. | |
dc.identifier.citation | PEDROSA, Samuel França da Costa. Deep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva. 2024. 30 f. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Escola de Engenharia Elétrica, Mecânica e de Computação, Universidade Federal de Goiás, Goiânia, 2024. | |
dc.identifier.uri | http://repositorio.bc.ufg.br//handle/ri/26137 | |
dc.language.iso | por | |
dc.publisher | Universidade Federal de Goiás | |
dc.publisher.country | Brasil | |
dc.publisher.course | Engenharia de Computação (RMG) | |
dc.publisher.department | Escola de Engenharia Elétrica, Mecânica e de Computação - EMC (RMG) | |
dc.publisher.initials | UFG | |
dc.rights | Acesso Aberto | |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Deep learning | |
dc.subject | Landmarks | |
dc.subject | Reconhecimento de sinais | |
dc.subject | Tecnologia assistiva | |
dc.subject | Assistive technology | |
dc.subject | LIBRAS | |
dc.subject | Sign recognition | |
dc.title | Deep learning para reconhecimento de sinais da LIBRAS como tecnologia assistiva | |
dc.type | Trabalho de conclusão de curso de graduação (TCCG) |
Arquivos
Pacote Original
1 - 1 de 1
Carregando...
- Nome:
- TCCG - Engenharia de Computação - Samuel França da Costa Pedrosa - 2024.pdf
- Tamanho:
- 2.63 MB
- Formato:
- Adobe Portable Document Format
Licença do Pacote
1 - 1 de 1
Carregando...
- Nome:
- license.txt
- Tamanho:
- 1.71 KB
- Formato:
- Item-specific license agreed upon to submission
- Descrição: