Data augmentation

Visualizando 3 posts - 1 até 3 (de 3 do total)
  • Autor
    Posts
  • #36269
    Felix Nganga
    Participante

    Professor, fez se data augmentation mas o numero total de imagens permaneceu o mesmo (3670).

    Esperava ou pensava ver esse numero aumentado apos esta operação cuja utilidade foi mesmo essa. Não é?

     

    Atentamente

    #36270
    Felix Nganga
    Participante

    E outra coisa, apos ter feito a data augmentation for base_treinamento:

    base_treinamento = base_treinamento.map(lambda imagens, labels: (pre_processamento(imagens), labels))

    Se faço o codigo abaixo para saber o novo numero de imagens nele contido, está me retornando -1:

    tamanho_treinamento = base_treinamento.cardinality().numpy()
    tamanho_treinamento

    #36277
    Denny Ceccon
    Moderador

    Olá Felix,

    Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetro steps_per_epoch passado ao método fit. Na aula, o professor usou steps_per_epoch igual ao número total de imagens dividido pelo batch_size, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada de pre_processamento. Se você usar um steps_per_epoch maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.

    cardinality retorna -1 porque, como o dataset original foi modificado com a função repeat, então seu tamanho é indefinido (tecnicamente, ele é infinito).

Visualizando 3 posts - 1 até 3 (de 3 do total)
  • Você deve fazer login para responder a este tópico.