Avaliação do número de camadas

Home Fóruns Fórum Deep Learning de A à Z com PyTorch e Python Avaliação do número de camadas

Visualizando 4 posts - 1 até 4 (de 4 do total)
  • Autor
    Posts
  • #39555

    Olá, poderia exemplificar como ficaria a classe classificador_torch na situação em que se deseja analisar o número de camadas ocultas ideal? No vídeo, o professor fala sobre definir o recebimento de um parâmetro a mais pela classe e fazer um for no init para fazer essa avaliação, mas fiquei meio perdido como seria essa construção.

    #39567
    Denny Ceccon
    Moderador

      Olá Vinícius,

      Você pode fazer algo assim:

      class classificador_torch(nn.Module):
          def __init__(self, activation, neurons, n_hidden_layers, initializer):
              super().__init__()
              self.input_layer = nn.Linear(30, neurons)
              initializer(self.input_layer.weight)
              self.hidden_layers = [nn.Linear(neurons, neurons) for _ in range(n_hidden_layers)]
              for layer in self.hidden_layers:
                  initializer(layer.weight)
              self.activation = activation
              self.output_layer = nn.Linear(neurons, 1)
          def forward(self, X):
              X = self.input_layer(X)
              X = self.activation(X)
              for layer in self.hidden_layers:
                  X = layer(X)
                  X = self.activation(X)
              X = self.output_layer(X)
              return X
      • Esta resposta foi modificada 1 ano, 3 meses atrás por Denny Ceccon.
      • Esta resposta foi modificada 1 ano, 3 meses atrás por Denny Ceccon.
      • Esta resposta foi modificada 1 ano, 3 meses atrás por Denny Ceccon.
      #39572

      Fiquei com uma dúvida em um trecho do código: no for _ in range(5), no lugar desse 5 não era pra estar o n_hidden_layers?

      #39574
      Denny Ceccon
      Moderador

        Isso mesmo, meu engano, agora está corrigido.

      Visualizando 4 posts - 1 até 4 (de 4 do total)
      • Você deve fazer login para responder a este tópico.