Respostas no Fórum
- AutorPosts
Olá Jonas,
- Possivelmente porque seus dados não têm tendências temporais que o modelo possa aprender. Basicamente, o modelo deve ter entendido que os dados são praticamente aleatórios, por isso está prevendo uma média com um pequeno ruído. Isto é comum para predição de preços de ações, pois se fosse fácil prever, seria muito fácil ganhar dinheiro na bolsa com algoritmos.
- Sim, mas você precisa prever um valor por vez e colocar o valor predito no final da janela que usa para fazer predições, para prever o próximo. Só que, como cada predição tem um erro associado, o erro desta tática costuma explodir rapidamente. É por isso, por exemplo, que é relativamente fácil prever o tempo para amanhã, mas muito difícil para daqui a uma semana.
Olá Vinícius,
A validação cruzada serve para mostrar a capacidade de generalização do modelo. Suponha que nós façamos validação cruzada com 10 folds, 9 deles tenham ficado com desempenho similar mas o último tenha tido desempenho inferior, isto quer dizer que, dependendo da fração dos dados que utilizemos para treinamento, o desempenho da rede será diferente. No cenário ideal, todos os resultados devem ser parecidos (ou seja, o desvio padrão deve ser pequeno). Por isso não podemos escolher o modelo com melhor desempenho nesta etapa, já que este desempenho é um mero artefato da forma com que os dados foram divididos.
26 de janeiro de 2023 às 15:55 em resposta a: Gradiente utilizado no arquivo rede multicamada.py do curso #39105Olá Vinícius,
Como neste exemplo só temos 4 registros, então não faz sentido treinar em batches. O erro no final de cada época é a média dos erros individuais, já que usamos
np.mean(erroCamadaSaida)
.Olá Katia,
Quando você faz o ajuste de uma instância de LabelEncoder, esta instância guarda os rótulos no atributo labels_, em ordem crescente. Por exemplo:
y = ['a', 'b', 'a'] le = LabelEncoder() le.fit(y) le.labels_ # Output: ['a', 'b']
- Esta resposta foi modificada 2 anos, 2 meses atrás por
Denny Ceccon.
26 de janeiro de 2023 às 12:27 em resposta a: Dúvida na comparação da classe_teste com previsões #39101Olá Vinícius,
É que no Python,
1
/0
eTrue
/False
são valores autoconversíveis.26 de janeiro de 2023 às 12:25 em resposta a: Número de neurônios na camada de saída em problemas de regressão #39100É isso mesmo Vinícius, no caso de classificação precisamos de um neurônio para cada categoria, e no caso de regressão, um neurônio para cada variável de interesse.
Olá Jonas,
Nas séries temporais, o tamanho do intervalo não importa, desde que ele seja constante e esteja em sequência. Portanto, você pode montar seu dataset com o número de visitas a cada minuto, e treinar o algoritmo desta forma.
Olá Renato,
Não tem como informar a rede neural diretamente, mas você pode tratar os dados para tornar essas associações implícitas. Por exemplo, você pode chamar receita/produto de 1, receita/serviço de 2, despesa/fixa de 3 e despesa/variável de 4, apresentando esses índices em uma única coluna.
Olá Edsson,
Estive revisando o material que foi utilizado na elaboração dessa aula e acredito que a forma correta de calcular o risco não-sistemático é subtrair, do risco total, o risco sistemático. O risco total pode ser expressado pela variância de todas as ações no portfólio, e para o risco sistemático nós podemos usar um índice que representa o mercado como um todo, como o próprio BOVA11. Dessa forma, o portfólio que só possui BOVA11 teria risco não-sistemático igual a 0, enquanto que o outro portfólio poderia ter risco não-sistemático negativo, o que suavizaria o seu risco total.
Olá Alan,
Geralmente basta converter a imagem para um array (função
numpy.array
). Dependendo da biblioteca que você use para ler a imagem, até já tem um métodoto_array()
implementado que converte a imagem para um array bi ou tridimensional. Para linearizar o array, basta chamar o métodoravel
no objeto do tipo numpy array.É isso mesmo, a implementação não deve ser difícil. Cheque a documentação do StratifiedKFold para gerar índices e, se ainda não conhecer, pesquisa como listar e mover arquivos com o Python.
Olá Renato,
Acho que você não vai encontrar nada pronto neste sentido, mas você pode implementar uma pipeline que gera índices para a validação cruzada e depois move os arquivos correspondentes para pastas de treinamento e teste. Esta seria uma solução que eu tentaria implementar.
Olá Lindomar,
Dá uma olhada na documentação da função print: https://docs.python.org/3/library/functions.html#print
Você pode passar o parâmetro
sep=''
para não colocar espaço entre as strings.Olá Gilvan,
Pra te falar a verdade eu acho que não vale a pena, porque é difícil definir o que são dois documentos “iguais”. Qualquer espaço a mais, ou falta de acento, ou diferença entre maiúscula e minúscula, vai alterar sua resposta. Se o objetivo é verificar se os dois arquivos são um cópia do outro, você não precisa de redes neurais para isso.
O mais provável é algum erro de implementação mesmo. Você poderia tentar simplificar sua arquitetura para debug, e rodar passo a passo pra ter certeza de que os cálculos estão corretos.
Se você só está interessado em um algoritmo funcional, por que não usa alguma biblioteca com a implementação pronta? Para implementações mais simples, poderia utilizar o Scikit-Learn mesmo, ou se quiser ter mais controle sobre a arquitetura poderia usar o Keras.
- AutorPosts