Dúvida quanto a camada de saída

Visualizando 2 posts - 1 até 2 (de 2 do total)
  • Autor
    Posts
  • #42983

    Na aula em 4:30, é dito que usamos o ‘from_logits=True’ porque não usamos função de ativação na camada de saída, mas a camada de saída é:

    last = tf.keras.layers.Conv2DTranspose(canais_saida, 4, strides=2, padding=’same’,
    kernel_initializer=initializer, activation = ‘tanh’)

     

    A função de ativação não seria a tangente hiperbólica ?

    #43012
    Denny Ceccon
    Moderador

      Olá Matheus,

      Observe que a função loss dentro da definição de loss_gerador depende da saída do discriminador, não do gerador, e a última camada do discriminador realmente não tem ativação.

    Visualizando 2 posts - 1 até 2 (de 2 do total)
    • Você deve fazer login para responder a este tópico.