Home › Forums › Fórum Deep Learning com TensorFlow Hub › Data augmentation
- This topic has 2 replies, 2 voices, and was last updated 3 years, 2 months ago by Denny Ceccon. 
- AuthorPosts
- 7 de agosto de 2022 at 06:38 #36269Professor, fez se data augmentation mas o numero total de imagens permaneceu o mesmo (3670). Esperava ou pensava ver esse numero aumentado apos esta operação cuja utilidade foi mesmo essa. Não é? Atentamente 7 de agosto de 2022 at 06:44 #36270E outra coisa, apos ter feito a data augmentation for base_treinamento: base_treinamento = base_treinamento.map(lambda imagens, labels: (pre_processamento(imagens), labels)) Se faço o codigo abaixo para saber o novo numero de imagens nele contido, está me retornando -1: tamanho_treinamento = base_treinamento.cardinality().numpy() 
 tamanho_treinamento8 de agosto de 2022 at 11:48 #36277Olá Felix, Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em pre_processamento, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetrosteps_per_epochpassado ao métodofit. Na aula, o professor usousteps_per_epochigual ao número total de imagens dividido pelobatch_size, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada depre_processamento. Se você usar umsteps_per_epochmaior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.cardinalityretorna -1 porque, como o dataset original foi modificado com a funçãorepeat, então seu tamanho é indefinido (tecnicamente, ele é infinito).
- AuthorPosts
- You must be logged in to reply to this topic.