Home › Fóruns › Fórum Deep Learning com TensorFlow Hub › Data augmentation
- Este tópico contém 2 respostas, 2 vozes e foi atualizado pela última vez 2 anos, 3 meses atrás por Denny Ceccon.
- AutorPosts
- 7 de agosto de 2022 às 06:38 #36269
Professor, fez se data augmentation mas o numero total de imagens permaneceu o mesmo (3670).
Esperava ou pensava ver esse numero aumentado apos esta operação cuja utilidade foi mesmo essa. Não é?
Atentamente
7 de agosto de 2022 às 06:44 #36270E outra coisa, apos ter feito a data augmentation for base_treinamento:
base_treinamento = base_treinamento.map(lambda imagens, labels: (pre_processamento(imagens), labels))
Se faço o codigo abaixo para saber o novo numero de imagens nele contido, está me retornando -1:
tamanho_treinamento = base_treinamento.cardinality().numpy()
tamanho_treinamento8 de agosto de 2022 às 11:48 #36277Olá Felix,
Isto acontece porque o processo de aumentação ocorre em tempo real durante a execução do código. Nenhuma nova imagem é gerada em disco, mas as imagens disponíveis são modificadas com as configurações passadas em
pre_processamento
, logo antes de serem passadas ao modelo. O número total de imagens é definido pelo parâmetrosteps_per_epoch
passado ao métodofit
. Na aula, o professor usousteps_per_epoch
igual ao número total de imagens dividido pelobatch_size
, o que resulta em um treinamento com o mesmo número de imagens disponíveis, mas cada uma delas vai ser modificada conforme a camada depre_processamento
. Se você usar umsteps_per_epoch
maior que isso, as mesmas imagens vão ser recicladas aplicando novas transformações aleatórias.cardinality
retorna -1 porque, como o dataset original foi modificado com a funçãorepeat
, então seu tamanho é indefinido (tecnicamente, ele é infinito). - AutorPosts
- Você deve fazer login para responder a este tópico.