Esse código tem o objetivo de gerar dataset inicial com as poses de vídeos com sinais em libras, criando um dataset onde cada linha representa a pose de um único frame de um vídeo.
Giovanna Lima Marques |
Ricardo Augusto Coelho |
Tiago Goes Teles |
Wellington de Jesus Albuquerque |
Esse código segue os seguinte processo:
- Procura todas as pastas dentro da pasta "videos", onde o nome da pasta, será a palavra que cada vídeo representa.
- Para cada pasta encontrado, buscará todos os vídeos para ser processado.
- Para cada vídeo encontrado, será lido todos os frames do vídeo.
- Para cada frame, é processado a identificação de poses via mediapipe e gerado uma linha do dataset e uma imagem de validação.
- Finalizado o processo de todas as pastas, o dataset é salvo.
- Instale as dependências.
- Clone o repositório.
git clone https://github.com/ia-equipe-6/libras-data-generation.git
- Cria uma pasta chamado "videos" na pasta do código.
mkdir videos
- Cria uma pasta chamado "output" na pasta do código.
mkdir output
- Para cada palavra, crie uma pasta dentro da pasta "videos" criado anteriormante.
cd videos mkdir palavra1 mkdir palavra2 cd ..
- Adicione os vídeos de cada palavra dentro das pastas criada no passo anterior, uma palavra por vídeo.
- Execute o gerador de dataset:
python .\generate_data.py
Todas as saídas estarão na pasta "output", incluíndo o CSV gerado.
Utilize o código de transformação do dataset para treinamento: https://github.com/ia-equipe-6/libras-dataset-transform
Esse código foi testado na versão 3.9 do Python e utiliza as seguintes bibliotecas para geração do dataset:
- Pandas
pip install pandas
- OpenCV
pip install opencv-python
- MediaPipe
pip install mediapipe