Viewing 2 posts - 1 through 2 (of 2 total)
  • Author
    Posts
  • #42983

    Na aula em 4:30, é dito que usamos o ‘from_logits=True’ porque não usamos função de ativação na camada de saída, mas a camada de saída é:

    last = tf.keras.layers.Conv2DTranspose(canais_saida, 4, strides=2, padding=’same’,
    kernel_initializer=initializer, activation = ‘tanh’)

     

    A função de ativação não seria a tangente hiperbólica ?

    #43012
    Denny Ceccon
    Moderator

      Olá Matheus,

      Observe que a função loss dentro da definição de loss_gerador depende da saída do discriminador, não do gerador, e a última camada do discriminador realmente não tem ativação.

    Viewing 2 posts - 1 through 2 (of 2 total)
    • You must be logged in to reply to this topic.