função de ativação

Home Fóruns Fórum Visão Computacional: O Guia Completo função de ativação

Visualizando 2 posts - 1 até 2 (de 2 do total)
  • Autor
    Posts
  • #38833

    Por que foi utilizada a função de ativação Relu, dado que a minha saída é binária ? Não poderia usar a sigmóide? Não tem uma melhor distribuição de acordo com a saída da minha rede?

    Outra dúvida é se posso utilizar diferentes funções de ativação na rede e como ativo elas.

    #38913
    Gabriel Alves
    Moderador

      Olá Maiara!

      Poderia sim, para classificação binária é indicado ativação sigmoide inclusive, porém nesse caso foi abordado direto o uso da ReLU, que é amplamente usada atualmente para se trabalhar com problemas mais complexos que esses do exemplo, que é um estudo de caso mais simples  (já adiantando o próximo módulo desse curso, sobre redes neurais convolucionais, que é o foco pois o curso se trata de visão computacional).

      E sim você pode usar diferentes funções de ativação, nesse mesmo projeto mostra como usar sigmoide. Para se aprofundar mais, sugiro seguir a Trilha Redes Neurais e Deep Learning aqui da plataforma pois lá você encontrará mais exemplos específicos contendo outros estudos de caso onde é mostrado uso de outras funções, além de se aprofundar mais na teoria das redes neurais.

    Visualizando 2 posts - 1 até 2 (de 2 do total)
    • Você deve fazer login para responder a este tópico.