- This topic has 1 reply, 2 voices, and was last updated 1 year, 11 months ago by .
Viewing 2 posts - 1 through 2 (of 2 total)
Viewing 2 posts - 1 through 2 (of 2 total)
- You must be logged in to reply to this topic.
Home › Forums › Fórum O Guia Completo sobre GANs: Redes Adversárias Generativas › Dúvida quanto a camada de saída
Na aula em 4:30, é dito que usamos o ‘from_logits=True’ porque não usamos função de ativação na camada de saída, mas a camada de saída é:
last = tf.keras.layers.Conv2DTranspose(canais_saida, 4, strides=2, padding=’same’,
kernel_initializer=initializer, activation = ‘tanh’)
A função de ativação não seria a tangente hiperbólica ?
Olá Matheus,
Observe que a função loss dentro da definição de loss_gerador depende da saída do discriminador, não do gerador, e a última camada do discriminador realmente não tem ativação.