Data augmentation

Visualizando 3 posts - 1 até 3 (de 3 do total)
  • Autor
    Posts
  • #36269
    Felix Nganga
    Participante

      Professor, fez se data augmentation mas o numero total de imagens permaneceu o mesmo (3670).

      Esperava ou pensava ver esse numero aumentado apos esta operação cuja utilidade foi mesmo essa. Não é?

       

      Atentamente

      #36270
      Felix Nganga
      Participante

        E outra coisa, apos ter feito a data augmentation for base_treinamento:

        base_treinamento = base_treinamento.map(lambda imagens, labels: (pre_processamento(imagens), labels))

        Se faço o codigo abaixo para saber o novo numero de imagens nele contido, está me retornando -1:

        tamanho_treinamento = base_treinamento.cardinality().numpy()
        tamanho_treinamento

        #36277
        Denny Ceccon
        Moderador

          Olá Felix,

          Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetro steps_per_epoch passado ao método fit. Na aula, o professor usou steps_per_epoch igual ao número total de imagens dividido pelo batch_size, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada de pre_processamento. Se você usar um steps_per_epoch maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.

          cardinality retorna -1 porque, como o dataset original foi modificado com a função repeat, então seu tamanho é indefinido (tecnicamente, ele é infinito).

        Visualizando 3 posts - 1 até 3 (de 3 do total)
        • Você deve fazer login para responder a este tópico.