Respostas no Fórum
- AutorPosts
Que ótimo! Estamos à disposição
Que bom que funcionou =)
Que ótimo saber que deu certo! Disponha
Olá! Essa dúvida você havia postado em outro tópico, mas só para deixar respondido nesse também:
Para fazer isso, basta usar esse comando para fazer o download do modelo
!wget -O ./tessdata/por.traineddata https://github.com/tesseract-ocr/tessdata/blob/main/por.traineddata?raw=true
Então, na sequência usar esse código:
config_tesseract = ‘–tessdata-dir tessdata’
texto = pytesseract.image_to_string(rgb, lang=’por’, config=config_tesseract)Perfeito, qualquer coisa estamos à disposição!
Que bom que deu certo!
Olá! Já que você está executando localmente deve usar o método nativo do OpenCV, que é o cv2.imshow (com “.” em vez de “_”), então até aí você fez correto mesmo. Porém, diferente do cv2_imshow (usado apenas dentro Colab), nesse você precisa passar o nome do janela também como parâmetro, antes da variável da imagem, por exemplo assim: cv2.imshow(“imagem de teste”, imagem). Se quiser mais detalhes sobre essa função, veja aqui.
Olá Ailton! Esse erro ocorre devido a um erro de digitação eu imagino, na mensagem que você passou consta no caminho “yolo4.weights”, na verdade seria “yolov4.weights”, ou seja ficou faltando o “v” apenas. Fazendo essa correção no comando é para baixar o arquivo correto.
Isso mesmo, Daniel
obrigado pela contribuição!
14 de maio de 2024 às 10:47 em resposta a: [Recomendação] Detecção de falha em uma imagem personalizada #44837Olá Michael, que ótimo saber que você conseguiu realizar o seu objetivo através das técnicas propostas! Meus parabéns =)
A agradecemos ao seu feedback quanto ao curso!
14 de maio de 2024 às 10:42 em resposta a: Imports javacv 1.5 – FaceRecognizer, EigenFaceRecognizer, etc… #44836Olá Adriano! Uma razão comum para esse erro é quando no pom está sendo especificado somente “javacv” e não “javacv-platform”, precisa conter o ID completo pois esse erro pode dar quando não vem as dependências do platform. Veja o código de referência aqui.
Outra sugestão seria usar a versão 1.3.3 que é a mesma exata usada no curso, então é garantido que funcione. Baixe ela aqui: https://drive.google.com/open?id=1ZVCFr7eyn0oH0bExqu_IU_xE-DeyTwji
Caso não funcione, experimente remover todos os JARs e adicioná-los novamente. Ou, também pode adicionar todos os outros JARs que vieram juntos no zip e depois testar, se funcionar então você vai removendo até deixar apenas os essenciais. Em todo caso, siga as instruções da aula de instalação do curso, pois lá mostra exatamente quais JARs você tem que manter.
Olá Flávio!
Para poder rodar com essa GPU você pode usar o xformers, que otimizará o uso da memória. O código que você forneceu aqui faz o uso dessa função, porém ele é definido para o pipeline atribuído a variável “sd15”, não ao pipeline que você configurou para gerar as imagens (atribuído à variável “pipe”). Ou seja, ele foi definido mas não foi usado na geração. Então, para resolver basta gerar usando o pipeline definido como sd15, ou simplesmente substituir onde aparece “sd15” por “pipe”, ficando assim:
[…]
pipe.enable_attention_slicing()
pipe.enable_xformers_memory_efficient_attention()prompt = “a photo of a terrier wearing sunglasses, on the beach, ocean in the background”
generator = torch.Generator(“cuda”).manual_seed(seed)
img = pipe(prompt, generator=generator).images[0][…]
A biblioteca diffusers oferece também outras opções caso queira otimizar mais ainda e portanto usar menos da memória da GPU, dê uma olhada aqui nesse artigo, tem o código disponível pronto para uso https://huggingface.co/docs/diffusers/optimization/memory
Mas acredito que configurando o xformers seja o suficiente, só verifique antes se ele foi instalado corretamente.
Olá Amarildo!
Eles geralmente retornam em 1 dia útil, mas alguns casos mais raros pode levar 2 ou 3. Se ainda não apareceu para você, primeiramente verifique sua caixa de spam pois as vezes o email deles pode ter caído lá.
Você recebeu um email deles assim que criou sua conta? Você tem que receber uma mensagem com o título “Verify your email”, nesse email terá um link para confirmar seu email e então eles podem dar sequência. Verifique e me avise quais mensagens já recebeu do SageMaker em seu email até o momento.
Você pode tentar também fazer um cadastro com outro email, só para garantir.
Enquanto aguarda a aprovação da sua conta no SageMaker, você tem a opção de usar a nossa implementação do Colab para gerar as imagens. Isso é explicado no vídeo da aula “Código no Google Colab” da seção “Capas para livros”; é bastante simples, basta ter uma conta Google e acessar o notebook que está linkado nessa aula (aba Materiais). Oferecemos esse modo também como alternativa, pois algumas pessoas preferem por código ao invés da interface, mas se quiser você pode usá-lo agora nesse momento para gerar as imagens de um modo prático enquanto aguarda a aprovação =)
Olá, verifique se as imagens estão no diretório informado como parâmetro. A propósito, se você printar a variável dir_resultados, o que aparece para você? Veja pelo painel lateral se há algum arquivo dentro do diretório em questão.
Caso o erro persista, peço que compartilhe seu Colab para que eu consiga verificar melhor o que pode estar ocorrendo, já que pode haver outra coisa interferindo.
Olá Rafael!
- Para o YOLOv8 não há uma recomendação pois depende muito do dataset e de seu tamanho ou suas características, mas uma dica geral é começar com pelo menos uns 300 epochs. Em seguida, verifique se não ocorre o overfitting, caso não ocorra continue treinando por mais tempo. Aumente para 500, 700, 1000, e assim sucessivamente. Ou seja, enquanto não ocorrer o overfitting você pode continuar sempre treinando mais. E observe a métrica mAP durante o treinamento, quando notar que ela estabilizar e não aumentar mais após algumas épocas então treinou o suficiente (porém, oscilar um pouco entre as epochs é normal).
- Para salvar direto no Drive, você pode usar o parâmetro “project” da função train().
Com ele, você pode mudar o local onde deseja que os pesos treinados sejam salvos. Se você passar um caminho que seja dentro de /content/gdrive/MyDrive/ (igual como foi demonstrado nas aulas de treinamento do YOLOv4) então os pesos atualizados serão salvos dentro do Drive. E os melhores pesos serão aqueles com “-best” no nome.
Exemplo de código:
project = ‘/content/gdrive/MyDrive/treinamentoYOLO’ # diretorio drive
resultados = model.train(data=arquivo_config, epochs=10, imgsz=640, name=’yolov8s_modelo’, project=project)- AutorPosts