Rede Neural Convolucional para reconhecimento de gestos em LIBRAS (Alfabeto) Projeto 01/2019 - Ciência da Computação (Universidade Anhembi Morumbi)
-
Updated
May 18, 2020 - Python
Rede Neural Convolucional para reconhecimento de gestos em LIBRAS (Alfabeto) Projeto 01/2019 - Ciência da Computação (Universidade Anhembi Morumbi)
Projeto acadêmico que tem como objetivo legendar vídeos para Libras, usando Google Cloud e Hand Talk API.
✋ A hand tracking system that integrates a classification architecture which decodes gestual alphabet into text.
Repositório do projeto apresentado no vídeo "Reconhecendo sinais de LIBRAS com Deep Learning - Como fazer?" do canal Universo Discreto
Sistema para interpretação de ligua brasileira de sinais (LIBRAS). O objetivo do sistema é um interpretador da linguagem brasileira de sinais, onde o sistema irá observar os movimentos realizados a partir de uma webcam e converter os gestos em texto na tela do usuário.
Esse código, faz a interpretação de libras a partir de uma webcam. Atualmente o treinamento contém apenas 10 palavras.
This project uses Google's MediaPipe and Keras for real-time recognition of Brazilian Sign Language (LIBRAS) signs through computer vision. MediaPipe extracts hand and facial landmarks used for accurate sign interpretation, feeding them into a Keras-based convolutional neural network (CNN) for classification.
Leitura pela webcam das letras: A, B, C, D e E em libras.
OpenLibras was created to be an easy way to learn the alphabet of Libras (Lingua Brasileira de Sinais) as well as ASL (American Sign Language).
Add a description, image, and links to the libras topic page so that developers can more easily learn about it.
To associate your repository with the libras topic, visit your repo's landing page and select "manage topics."