Home › Fóruns › Fórum Deep Learning com TensorFlow Hub › Data augmentation › Responder a: Data augmentation
Olá Felix,
Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento
, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetro steps_per_epoch
passado ao método fit
. Na aula, o professor usou steps_per_epoch
igual ao número total de imagens dividido pelo batch_size
, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada de pre_processamento
. Se você usar um steps_per_epoch
maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.
cardinality
retorna -1 porque, como o dataset original foi modificado com a função repeat
, então seu tamanho é indefinido (tecnicamente, ele é infinito).