Respostas no Fórum
- AutorPosts
- 25 de novembro de 2023 às 17:59 em resposta a: Não abre a pasta zip, conforme mensagem apresentada no codigo #42998
Opa, que bom que conseguiu resolver!
23 de novembro de 2023 às 08:07 em resposta a: Não abre a pasta zip, conforme mensagem apresentada no codigo #42980Olá Francisco!
Esses dois erros destacados na imagem ocorrem pois o arquivo .zip não foi localizado e portanto não foi copiado para o Colab ali no primeiro comando mais ao topo da imagem (o comando !cp, que nesse caso está fazendo uma cópia do arquivo salvo no seu Google Drive para a pasta /content/, que é dentro máquina virtual do Colab).
Ele não consegue localizar o arquivo pois o caminho para chegar até ele está diferente em seu Drive. Pro exemplo de aula, é => MyDrive/Cursos – recursos/Segmentação Imagens Python AZ/drive_dataset.zip
Já o seu caminho está diferente, repare ali no painel esquerdo do print que você enviou. A diferença é que em seu Drive a pasta “Segmentação Imagens Python AZ” não está dentro da pasta “Cursos – recursos”, mas de uma outra pasta. Ali no print está cortando o nome devido ao limite de caracteres, mas imagino que essa pasta tenha o mesmo nome da outra que está dentro dela (“Segmentação Imagens Python AZ”) portanto você precisa especificar isso no comando. Pois no comando deve ser passado como parâmetro o caminho exato onde está localizado o arquivo dentro de seu Drive.
Então, você deve substituir pelo nome exato das pasta que você deixou e colocar em seu comando. Se os nomes das pastas forem mesmo “Segmentação Imagens Python AZ”, então seu comando ficaria assim: !cp /content/gdrive/MyDrive/Segmentação\ Imagens\ Python\ AZ/Segmentação\ Imagens\ Python\ AZ/datasets/drive_dataset.zip /content/
E se após executar não aparecer a mensagem ali em baixo desse comando (“cp: cannot stat ‘…'”) então indica que foi certo, e os comandos seguintes deverão rodar sem problemas.
- Esta resposta foi modificada 1 ano, 5 meses atrás por
Gabriel Alves.
Olá Luana!
As etapas anteriores a essa não retornaram nenhum erro ou mensagem diferente ao executar?
Acredito que pode ser por causa do xformers, que está associado ao mesmo problema do outro tópico que você criou.
Para resolver, basta copiar e colar aquele comando no início desse seu código do treinamento personalizado:
!pip install torch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 torchtext==0.14.1
Pelo que testei aqui, assim está funcionando. Mas caso não resolva, peço que se possível mudar a opção de compartilhamento desse Colab que você colocou ali na mensagem para assim eu conseguir te ajudar melhor. Para isso, abra seu Colab e clique lá em cima no botão Compartilhar, e abaixo de “Acesso geral” muda para “Qualquer pessoa com o link”. Ou aceite a solicitação que acabei de enviar.
Olá Heitor!
Sim, temos aqui na plataforma o curso Segmentação de Imagens com Python – de A à Z. Lá por exemplo mostra como usar a técnica Mask R-CNN, usado para detecção de instâncias (onde você pode diferenciar entre as várias instâncias dos objetos da mesma classe detectados na imagem). Nesse curso é mostrado como criar um modelo personalizado, mas para objetos mais comuns você pode usar o modelo pré-treinado, que já é capaz de detectar e segmentar corretamente esses objetos mais comuns como laranjas, maçãs, carros, pessoas, etc.
Se quiser, pode dar uma olhada também em outros cursos da Trilha de Visão Computacional.
Oi, esse aviso não é para interferir no funcionamento do código implementado durante as aulas, apesar de aparecer essa mensagem você deve conseguir executar normalmente.
Caso deseje mesmo assim retirar esse aviso, você pode completar esse comando pip com mais alguns parâmetros, deixando assim:
!pip install torch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 torchtext==0.14.1
Mas caso ainda esteja com problemas para executar, peço para compartilhar aqui o seu Colab se possível para eu analisar melhor, pois nesse caso deve ter outra coisa interferindo.
Olá Luana!
Parece que há uma incompatibilidade entre o xformers (módulo usado para otimizar a geração das imagens) e as versões mais recentes da biblioteca Pytorch, essas que passaram a ser atribuídas bem recentemente às novas sessões no Colab. Portanto, a recomendação é fazer o downgrade do torch para versão 1.13.1, já que atualmente o xformers funciona melhor para essa versão.
Para isso, utilize esse comando abaixo:
!pip install torch==1.13.1
Basta copiar e executar esse comando por primeiro antes das demais linhas em seu código no Colab, e depois pode continuar executando normalmente o restante.
(Reinicie o ambiente de execução, caso já tenha iniciado)Ou você poderia também simplesmente pular essa linha que gerou o erro, mas recomendamos usar o xformers; mudar a versão do pytorch aqui não terá qualquer outro impacto então você pode fazer isso e deve conseguir executar tudo normalmente.
- Esta resposta foi modificada 1 ano, 6 meses atrás por
Gabriel Alves.
Olá Igor, é possível sim! O que você busca é na verdade treinar um detector de objetos próprio, para isso você deverá treinar um modelo de detecção para ele aprender a detectar o objeto que você deseja treinar. Basicamente, para isso deve ser fornecido à rede neural as imagens de treinamento (é aqui que você vai usar o conjunto de imagens que você tem do objeto).
Esse é um processo que envolve mais detalhes e por isso foge bastante do foco desse curso em questão (Detecção e Reconhecimento de faces, onde para a detecção da face na imagem faz sentido usar um modelo de detecção já pronto para tornar todo o processo prático e focar no reconhecimento) mas caso você deseje realizar essa tarefa e treinar seu próprio detector personalizado eu sugiro dar uma olhada no Curso de YOLO aqui na plataforma, que mostra detalhadamente como treinar um modelo YOLO, que é sem dúvidas uma das técnicas mais modernas para detecção de objetos hoje.
Na trilha de Visão Computacional você encontrará também outros cursos voltados para a detecção, sugiro passar por eles também, mas caso sua ideia é ser mais objetivo eu recomendaria ir direto para o curso de YOLO, lá já mostra todo o passo a passo para a maneira mais moderna de fazer o treinamento.
Obs: Caso não tenha as imagens de treinamento ainda você pode baixar as fotos da internet, como também é explicado no curso.
Olá Igor!
Só para confirmar, você está se referindo ao reconhecimento né? Como se refere a carregar um banco de dados próprio para posteriormente identificar em um vídeo eu acredito que sim (pois a ideia é usar as próprias imagens para treinar o reconhecedor de faces, podendo usar para fotos ou vídeos), mas como o tópico que criou está marcado com “SSD” eu fiquei na dúvida, pois esse algoritmo está sendo usado para detecção.
Para usar um conjunto de imagens próprio, veja a partir da aula “Biblioteca face recognition 3” (mas recomenda-se ver as anteriores, caso não tenha visto), nessa aula é explicado detalhadamente como fazer a leitura e codificação das imagens presentes em um diretório, o qual deverá ter as suas imagens.
Já se por um acaso estiver de fato se referindo à detecção de faces (o que pelo contexto imagino que não, mas só para esclarecer mesmo) então o que você precisa é treinar um modelo de detecção de objetos, para isso escolher a técnica de detecção e treinar o algoritmo usando as suas próprias imagens – por exemplo, o curso de YOLO aqui na plataforma que mostra detalhadamente como criar seu próprio detector de objetos; mas na Trilha de Visão Computacional encontrará outros voltados à detecção.
Olá Brendo!
Primeiramente verifique se após executar a instalação da biblioteca face_recognition não foi retornado nenhum erro; em seguida, reinicie a IDE, depois tente executar novamente o programa.
Para a instalação do face_recognition você usou o mesmo método mostrado na aula “Projeto: captura de faces pela webcam”?
Tente desinstalar a biblioteca usando pip uninstall e em seguida execute o comando “pip3 install face_recognition” (“pip3” ao invés de “pip”).
Em alguns casos, talvez seja necessário antes de instalar o face_recognition instalar o cmake (pip install cmake).
Isso geralmente resolve, mas se o problema persistir então peço que informe qual versão do Python está usando. Aliás, verifique se o seu código está sendo executado no ambiente correto, onde está instalado o face_recognition (geralmente esse é o principal motivo desse problema).Disponha, David!
Olá David!
Essa mensagem realmente aparece no output da célula, mas na verdade esse aviso não deveria influenciar o funcionamento do restante do código, portanto deveria estar dando para executar o código normalmente. Se não estiver rodando para você, poderia compartilhar aqui o seu Colab? Assim eu posso analisar melhor o que pode estar acontecendo e se há outra coisa interferindo, pois hoje fiz mais um teste com o mesmo código e rodou normalmente.
Olá Wellington!
O denoise é implementado por padrão pelo método usado para criar a pipeline, então você pode fornecer esse parâmetro junto com os demais (prompt, prompt negativo, cfg, etc.). Para saber como usar, veja a aula “Parâmetros – inference step” (“inference step” nesse contexto é o mesmo que “denoising step”).
Quanto ao Karras sigmas, parece que já possui suporte no diffusers para todos os schedulers mais populares. Para implementar, você tem que passar o parâmetro assim: “use_karras_sigmas=True”.
Já o Refiner também é possível, porém ele é usado mais no contexto do SDXL (Stable Diffusion XL), mais detalhes.
- Esta resposta foi modificada 1 ano, 7 meses atrás por
Gabriel Alves.
Olá Rogério,
As imagens usadas no curso estão na pasta do Drive compartilhada na aula “Recursos para download”.
Esse link: https://drive.google.com/drive/folders/1jcWIoIWlFJ2ocERjW0p2W1cZ4LRMEjM5?usp=sharing
Para as aulas do YOLOv8, as imagens estão na pasta “Atualização YOLOv8 > fotos_teste”.
Caso não tenha encontrado alguma imagem, por gentileza informe qual para podermos lhe auxiliar.
Olá Wellington!
Quando são geradas múltiplas imagens de uma única vez, o resultado da função pipe (ou outro nome que você definiu) é uma lista, então para acessar uma imagem específica basta acessar através do índice. Por exemplo, para acessar a primeira foto da lista você pode simplesmente colocar em uma célula assim: imgs[0] (supondo que imgs é o nome que escolheu para a variável que recebe o resultado da geração). Portanto, para a segunda imagem é imgs[1].
Abaixo deixo um exemplo de código que salva a segunda imagem da lista em uma variável, e depois você pode fazer o que quiser e como quiser, basta referenciar essa variável contendo a imagem como uma próxima etapa para o algoritmo ou para a rede que fará a manipulação desejada, como por exemplo o upscale. Nesse exemplo, deixo ao final uma linha de comando para salvar a imagem em um arquivo
…
imgs = pipe(prompt, generator=generator).imagesresultado = imgs[1]
resultado.save(“resultado.png”)
4 de setembro de 2023 às 18:19 em resposta a: Treinamento Personalizado – Aula: Geração de imagens (SEED = 777 ?) #41690Olá Wellington!
Esse “seed = 777″ ficou ali inicialmente pois a ideia era reaproveitar essa parte das aulas anteriores e mostrar como o código era reaproveitável, porém logo nos primeiros exemplos com o modelo gerado pelo fine-tuning ficou mais interessante deixar um trecho de código que gera um valor aleatório para o seed a cada execução. Assim é melhor nesse contexto já que agora é um cenário de uma aplicação mais realista e nesses casos você geralmente vai querer fazer testes com vários seeds e portanto é conveniente deixar eles aleatórios. E a vantagem de gerar o seed no programa é que conseguimos printar ele, assim caso gere uma sequência de imagens que achemos interessante nós podemos anotar o seed e trabalhar melhor os ajustes nos parâmetros (para melhorar certos aspectos da imagem por exemplo) usando esse valor como seed para a próxima geração (aí basta definir manualmente, igual com o “seed = 777”). - Esta resposta foi modificada 1 ano, 5 meses atrás por
- AutorPosts