Respostas no Fórum

Visualizando 15 posts - 286 até 300 (de 402 do total)
  • Autor
    Posts
  • em resposta a: Detecção por Raspbarry #35936
    Gabriel Alves
    Moderador

      Para exemplo de código recomendo verificar o primeiro link na minha resposta anterior, lá tem um código pronto para usar e mostra certinho como rodar em tempo real.

      em resposta a: Segmentação panóptica – implementação 2 #35875
      Gabriel Alves
      Moderador

        Olá! Sim consegue. Para a segmentação panóptica pode ser um pouco mais difícil comparado aos outros pois é uma técnica mais nova e possui ainda pouca documentação e exemplos prontos de como treinar um modelo customizado, mas usando o Detectron2 é bem mais fácil de fazer o treinamento, dê uma olhada aqui:  https://www.celantur.com/blog/panoptic-segmentation-in-detectron2/

        em resposta a: Detecção por Raspbarry #35874
        Gabriel Alves
        Moderador

          Olá! Consegue sim, quanto a rodar YOLO no Raspberry Pi também sugiro dar uma olhada nesse artigo, que pode ser bem útil. Só tem que ver se ele vai rodar a uma boa taxa de FPS, na verdade isso vai depender totalmente do tipo de sua aplicação (especialmente se ela exige processar tudo em tempo real e se depende de uma taxa alta de FPS), por isso é bom testar e ver qual vai ser o tempo de inferência. Caso a taxa de FPS seja muito baixa sugiro treinar com o Tiny-YOLO.

          Gabriel Alves
          Moderador

            Olá Jardel!

            Para fazer isso você pode simplesmente juntar de maneira manual com o dataset que você baixou com o OID, ou seja deixar na mesma pasta, lembrando de deixar a estrutura das subpastas e padrão de nomeação dos arquivos exatamente como mostramos, pois tem que estar tudo no mesmo formato. Se você não tiver feito a anotação das imagens ainda, veja a aula “Criação do seu dataset de imagens manualmente”.

            em resposta a: Treinamento Personalizado no DeepLab #35872
            Gabriel Alves
            Moderador

              Olá Renato!

              Sim é possível treinar um modelo personalizado com o DeepLab, não mostramos no curso pois a arquitetura escolhida para mostrar como treinar um modelo personalizado para segmentação semântica foi o U-Net. Mas se deseja saber como fazer sugiro dar uma olhada nesse artigo aqui: https://rockyshikoku.medium.com/train-deeplab-v3-with-your-own-dataset-13f2af958a75 (e tem um Colab com código mais detalhado aqui, creio que vai ajudar).

              em resposta a: Dúvida sobre arquitetura #35871
              Gabriel Alves
              Moderador

                Opa interessante, boa sorte em seus estudos. Sobre esse tema, recomendo dar uma olhada nessa abordagem também que é usada para detecção de leucócitos: https://github.com/mikeszabi/WBC/blob/master/WBC_detection.ipynb

                (e tem essa outra abordagem mais simples com equalização de histograma e canny edge, parecido com o que fizemos: https://www.geeksforgeeks.org/python-blood-cell-identification-using-image-processing/  e depois aplicar o watershed)

                em resposta a: Segmentação panóptica – Introdução #35869
                Gabriel Alves
                Moderador

                  Olá Wesley, para qual aula exatamente está acontecendo isso? Na de introdução também? E para todas as demais carregou normal?

                  Experimente fazer um recarregamento forçado (ctrl+shift+R) e tentar esvaziar o cache da página, mas caso não funcione nos avise.

                  em resposta a: Dúvida sobre arquitetura #35833
                  Gabriel Alves
                  Moderador

                    Olá Lucas!

                    Além da detecção você precisa segmentar o objeto também, isso? Ou apenas a detecção? Acredito que poderia usar a R-CNN mesmo ou algum modelo baseado ainda em alguma CNN mais complexa como o Xception, que é recomendada para imagens microscópicas inclusive. Na verdade depende também quais as características das imagens microscópicas vocês irá trabalhar. Mas quanto a usar o watershed para segmentar e enviar para a rede, é bem interessante e já li sobre alguns projetos que fizeram isso para obter melhores resultados. Sobre isso aliás, se quiser ver uma pipeline de como poderia ficar essa implementação: https://www.researchgate.net/figure/Pipeline-of-the-proposed-method-combining-CNN-and-watershed-The-method-has-three-steps_fig1_324120625

                    em resposta a: Segmentação panóptica – Introdução #35775
                    Gabriel Alves
                    Moderador

                      Olá Lucas,

                      Verifique se não é algum problema na conexão de internet, que pode atrasar o carregamento e fazer com que certos elementos não carreguem (ou demorem muito para carregar e pareça que não está carregando).

                      em resposta a: Imagens microscópicas 3 #35774
                      Gabriel Alves
                      Moderador

                        Olá Lucas!

                        Isso, na verdade essa forma que você sugere inicialmente é para manter os elementos separados e portanto seria para Segmentação de Instâncias. Nesse caso nós estamos concatenando máscaras das imagens do dataset pois queremos fazer a Segmentação Semântica. Já se a ideia é fazer a segmentação de instâncias (e diferenciar cada instância do objeto) então o caminho seria não juntar as máscaras, mas sim mantê-las separadas para cada anotação individual.

                        em resposta a: cannot open resource frame #35732
                        Gabriel Alves
                        Moderador

                          Olá Daiana!

                          Após executar o comando “!pip install Pillow==9.1.0” clique no botão [Restart Runtime] que irá aparecer na tela, na saída da célula onde esse comando foi executado (ou selecione manualmente a opção “Reiniciar ambiente de execução” no menu ao topo) e após aguardar poucos segundos você pode executar normalmente o restante do código, na ordem como está no Colab. Eu fiz aqui nesse seu Colab que você mandou e funcionou tudo certinho.

                          em resposta a: Pose de mais de uma pessoa #35665
                          Gabriel Alves
                          Moderador

                            Olá Júlio!

                            É possível sim. Um maneira de fazer isso e provavelmente garantir maior confiabilidade seria fazer a detecção da pessoa antes (através de um detector de objetos robusto como o YOLO) – em seguida, através das coordenadas retornadas você irá extrair a região de interesse (ROI) de cada pessoa e para cada região será feita a estimação de pose. Ou seja, será passado para a rede neural a imagem da região de interesse apenas – e a região de cada pessoa. Para isso basta fazer um laço de repetição para percorrer cada detecção/pessoa (pode usar o mesmo usado para desenhar a caixa delimitadora sobre a imagem) e para cada iteração passar a imagem da região para a rede fazer o pose-estimation; assim, ao final vai garantir que será feito para cada pessoa presente na imagem/frame (caso tenha dúvidas de como extrair certa região de interesse da imagem a partir das coordenadas veja aqui).

                            Outra maneira (se deseja mesmo um código meio pronto) poderia ser feita assim: https://github.com/nicknochnack/MultiPoseMovenetLightning/blob/main/MultiPose%20MoveNet%20Tutorial.ipynb

                            em resposta a: Detecção de mancha de óleo #35392
                            Gabriel Alves
                            Moderador

                              Olá!

                              Isso mesmo, uma abordagem nesse caso seria treinar a rede neural para que ela seja capaz de detectar na imagem (classificação+localização) o objeto que você deseja – para isso, você deve fornecer à rede imagens de treinamento, com anotações informando qual coordenada na imagem o objeto está presente.

                              No entanto, esse problema que você busca resolver é um pouco mais complexo mesmo devido ao fato do “objeto” a ser detectado possuir uma possibilidade de assumir infinitas formas. No entanto, mesmo assim as manchas possuem um certo padrão em seu formato, claro que uma pode não ser idêntica à outra mas ainda assim algumas vão se assemelhar bastante. Então pode ser que usando essa abordagem você consiga bons resultados, só seria necessário reunir um dataset bem grande (o máximo que você conseguir, eu diria pelo menos 2500 amostras). Para fazer a criação do set e anotação, qualquer dúvida veja o curso sobre Detecção de Objetos com YOLO, lá mostramos todo o processo de criação de um dataset.

                              Mas talvez antes de reunir as imagens você queira testar com uma abordagem diferente, como a detecção com Blobs, que por um lado não necessita horas de treinamento de uma rede neural, porém pode ser necessário alguns ajustes para ‘calibrar’ bem o algoritmo. Dê uma olhada aqui nesse artigo que mostra já uma maneira boa de como aplicar essa técnica: https://towardsdatascience.com/image-processing-with-python-blob-detection-using-scikit-image-5df9a8380ade

                              Acredito que com essa abordagem você poderia conseguir resultados até melhores do que treinando com uma rede neural. Além dessa detecção por blob, sugiro dar uma olhada em técnicas de segmentação de imagem, mostramos todas as principais no curso Segmentação de Imagens com Python. Com essas você poderia também conseguir bons resultados, basta definir um bom limiar e usar o conjunto certo de técnicas de pré-processamento.

                              em resposta a: Rastreamento #35389
                              Gabriel Alves
                              Moderador

                                Olá Breno!

                                Para resolver isso você pode usar em conjunto ao tracking um detector de objetos preciso como o YOLO. Usando um detector de objetos você consegue filtrar bem qual a classe do objeto que deseja fazer o tracking e evitar que apareça objetos distintos.

                                Aliás, para facilitar tem um repositório que já implementa essas duas técnicas juntas, dê uma olhada: https://github.com/ankit16-py/YOLOv3-KCF-Fast-Object-Tracker

                                em resposta a: Como usar o PointRend em um modelo personalizado #35168
                                Gabriel Alves
                                Moderador

                                  Opa que ótimo =)

                                  Disponha!

                                Visualizando 15 posts - 286 até 300 (de 402 do total)