- Este tópico contém 1 resposta, 2 vozes e foi atualizado pela última vez 1 ano, 2 meses atrás por .
Visualizando 2 posts - 1 até 2 (de 2 do total)
Visualizando 2 posts - 1 até 2 (de 2 do total)
- Você deve fazer login para responder a este tópico.
Home › Fóruns › Fórum O Guia Completo sobre GANs: Redes Adversárias Generativas › Dúvida quanto a camada de saída
Na aula em 4:30, é dito que usamos o ‘from_logits=True’ porque não usamos função de ativação na camada de saída, mas a camada de saída é:
last = tf.keras.layers.Conv2DTranspose(canais_saida, 4, strides=2, padding=’same’,
kernel_initializer=initializer, activation = ‘tanh’)
A função de ativação não seria a tangente hiperbólica ?
Olá Matheus,
Observe que a função loss
dentro da definição de loss_gerador
depende da saída do discriminador, não do gerador, e a última camada do discriminador realmente não tem ativação.