- Este tópico contém 1 resposta, 2 vozes e foi atualizado pela última vez 1 ano, 10 meses atrás por .
Visualizando 2 posts - 1 até 2 (de 2 do total)
Visualizando 2 posts - 1 até 2 (de 2 do total)
- Você deve fazer login para responder a este tópico.
Home › Fóruns › Fórum Visão Computacional: O Guia Completo › função de ativação
Marcado: Construção e treinamento da rede neural (Redes neurais artificiais para classificação de imagens)
Por que foi utilizada a função de ativação Relu, dado que a minha saída é binária ? Não poderia usar a sigmóide? Não tem uma melhor distribuição de acordo com a saída da minha rede?
Outra dúvida é se posso utilizar diferentes funções de ativação na rede e como ativo elas.
Olá Maiara!
Poderia sim, para classificação binária é indicado ativação sigmoide inclusive, porém nesse caso foi abordado direto o uso da ReLU, que é amplamente usada atualmente para se trabalhar com problemas mais complexos que esses do exemplo, que é um estudo de caso mais simples (já adiantando o próximo módulo desse curso, sobre redes neurais convolucionais, que é o foco pois o curso se trata de visão computacional).
E sim você pode usar diferentes funções de ativação, nesse mesmo projeto mostra como usar sigmoide. Para se aprofundar mais, sugiro seguir a Trilha Redes Neurais e Deep Learning aqui da plataforma pois lá você encontrará mais exemplos específicos contendo outros estudos de caso onde é mostrado uso de outras funções, além de se aprofundar mais na teoria das redes neurais.