Home › Fóruns › Fórum Reconhecimento de Gestos e Ações com Python e OpenCV › Como treinar um modelo?
Marcado: Leitura do modelo MPII
- Este tópico contém 1 resposta, 2 vozes e foi atualizado pela última vez 4 anos atrás por Dalton Vargas.
- AutorPosts
- 17 de novembro de 2020 às 09:29 #22187
Entendo que para treinar um modelo deste tipo, que reconheça gestos, necessito de muito poder computacional, mas gostaria de informações sobre como fazê-lo.
Orientações sobre onde buscar essas informações já são muito úteis!
Também gostaria de entender como chegou nesses modelos treinados, você fez ou os pegou pronto?
Obrigado!
17 de novembro de 2020 às 14:17 #22191Olá LpCoutinho!
Nos links abaixo você encontra os artigos completos dos autores de cada modelo, explicando detalhadamente como foram criados:
Hand Keypoint Detection in Single Images using Multiview Bootstrapping
Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields ∗
Neste curso trazemos apenas uma introdução básica sobre a arquitetura de redes neurais convolucionais, utilizadas pelos autores dos artigos acima na criação dos modelos (Seção 2 – Teoria básica). Os autores disponibilizam os modelos pré-treinados neste link: https://github.com/CMU-Perceptual-Computing-Lab/openpose/tree/master/models. Sugiro iniciar sua pesquisa focando em redes neurais convolucionais, para entender bem como funcionam e implementar seus próprios modelos.
Também seguem os links do dataset utilizados para treinamento de cada um dos modelos:
COCO 2020 Keypoint Detection Task
Espero ter ajudado, fico a disposição!
Att,
Dalton
- AutorPosts
- Você deve fazer login para responder a este tópico.