Respostas no Fórum
- AutorPosts
Boa noite Pereira, esta faltando o atributo [‘Close’]. Veja abaixo como deve ficar:
acoes_df = pd.DataFrame() for acao in acoes: acoes_df[acao] = data.DataReader(acao, data_source='yahoo', start='2015-01-01')['Close']
Fabio
22 de fevereiro de 2021 às 20:07 em resposta a: Cálculo do Desvio Padrão com dados de mais de uma coluna. #27750Boa noite Alex, sua pergunta não havia sido notificada aqui para mim. Que bom que conseguiu resolver a primeira a parte da sua dúvida. Entretanto, consegue dar mais detalhes da segunda dúvida? Se puder postar um print do que você esta tentando fazer.
Fabio
Outro detalhe Clauder, retire a / (barra) antes do nome do arquivo.
Fabio
Boa noite Rafael, não temos cursos relacionados a isso, mas encontrei alguns materiais que podem lhe ajudar, veja abaixo:
https://www.youtube.com/watch?v=earQPDAr3io
https://www.learnrobotics.org/blog/face-tracking-opencv/
https://github.com/ankitdhall/Arduino-OpenCV-Human-Follower
Fabio
Boa noite Clauder, qual IDE você esta utilizando? Lembre que para IDE’s como Jupyter e Spyder o arquivo csv deve estar no mesmo diretório do projeto ou no diretório padrão.
Aguardo sua resposta para continuar lhe auxiliando.
Fabio
3 de fevereiro de 2021 às 21:52 em resposta a: Criação dos plots de components e forecast – Prophet #27595Boa noite Edi, consegue fazer um teste com o código fonte da vídeo aula? Compreendo que seu código esta parecido, mas pode estar faltando alguma etapa, por isso o erro.
Fabio
2 de fevereiro de 2021 às 16:33 em resposta a: Criação dos plots de components e forecast – Prophet #27575Boa tarde Edi, desculpe não havia notificado a sua pergunta aqui. Sobre o erro, pelo que eu pude entender o seu df_prediction é uma string e a função .head() necessita de um dataframe. Consegue verificar no momento em você cria esse dataframe se existe alguma mensagem de erro?
https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.head.html
Fabio
- Esta resposta foi modificada 4 anos, 3 meses atrás por
Fábio Spak.
Boa noite Nelson, encontrei algumas discussões com exemplos de implementações que podem lhe ajudar, veja baixo:
https://stackoverflow.com/questions/54367491/calculate-average-of-days-between-a-list-of-dates
Fabio
Bom dia Carlos, sim ambas são não supervisionadas. Sobre a técnica de agrupamento em marketing, pode ser utilizada dependendo do contexto e do objetivo do projeto.
Fabio
Boa noite Carlos, as regras de associação são utilizadas para encontrar correlações e co-ocorrências entre conjuntos de dados. Normalmente são utilizadas para explicar padrões entre informações independentes, com ênfase em bancos de dados relacionais e transacionais, onde se utiliza o termo “mineração de regras de associação”. A intuição do termo clustering é categorizar as informações a fim de gerar segmentações e com isso agrupa-las por características parecidas, como por exemplo: comportamento, sexo, renda per capita, entre outras.
Fabio
Boa noite Edi, possivelmente esta faltando alguma dependência no Jupyter. Entretanto, sugiro utilizar o ambiente do Google Colab.
Fabio
Boa noite Fabio, obrigado por nos avisar, iremos verificar.
Obrigado por compartilhar o material
Fabio
Boa noite Dougtaleb, nesse cálculo taxas_retorno = (dataset / dataset.shift(1)) – 1 é realizada uma operação matemática comum. O valor é exibido em porcentagem quando multiplicado por 100.
Fabio
Boa noite Edi, em qual ambiente você tentou instalar a biblioteca, no Spyder no no Google Colab?
Fabio
Boa tarde Nelson, segue a resposta do instrutor Denny Ceccon:
“Como só é possível aplicar o KMeans em dados numéricos, as variáveis categóricas têm sim que ser transformadas no tipo one-hot-encoding (que é a mesma coisa que faz a função pd.get_dummies). Não sei se é “necessário” transformar em array, mas certamente não prejudica, já que as bibliotecas de machine learning costumam trabalhar com arrays do numpy.
Visualizar o quanto o PCA representa dos dados originais é interessante sim, porque se este valor for muito baixo, então o gráfico acaba não sendo uma boa representação do problema, já que ainda há muita variabilidade nas outras dimensões do PCA que não são plotadas. A ideia de concentrar a variabilidade em poucas dimensões é justamente permitir a visualização em plots.”Fabio
- Esta resposta foi modificada 4 anos, 3 meses atrás por
- AutorPosts