Respostas no Fórum

Visualizando 15 posts - 361 até 375 (de 403 do total)
  • Autor
    Posts
  • em resposta a: Visualizar um dataframe atraves do displaCY #34634
    Denny Ceccon
    Moderador

      Olá Shin,

      Tente adicionar o parâmetro manual=True à chamada do displacy, como sugere o código de erro.

      em resposta a: Padronização e zscore(knn) #34616
      Denny Ceccon
      Moderador

        Bem observado, Caio! Neste caso, você não vai poder usar a função cross_val_score, e precisa fazer uma implementação manual. Seria mais ou menos assim:

        from sklearn.model_selection import StratifiedKFold
        from sklearn.preprocessing import StandardScaler
        from sklearn.neighbors import KNeighborsClassifier
        from sklearn.metrics import accuracy_score
        
        skf = StratifiedKFold(n_splits=5)
        z_score_treinamento = StandardScaler()
        z_score_teste = StandardScaler()
        accuracy_folds = []
        for train_index, test_index in skf.split(X, y):
            X_treinamento, y_treinamento = X[train_index], y[train_index]
            X_teste, y_teste = X[test_index], y[test_index]
            X_treinamento_p = z_score_treinamento.fit_transform(X_treinamento)
            X_teste_p = z_score_teste.fit_transform(X_teste)
            knn = KNeighborsClassifier()
            knn.fit(X_treinamento_p, y_treinamento)
            previsoes = knn.predict(X_teste_p)
            accuracy = accuracy_score(y_teste, previsoes)
            accuracy_folds.append(accuracy)

        Ou seja, os splits são produzidos manualmente através da classe StratifiedKFold, aí cada split é padronizado, o modelo é treinado, a acurácia é calculada e o resultado é acumulado na lista accuracy_folds.

        em resposta a: Como encontrar o suporte de cada regra #34602
        Denny Ceccon
        Moderador

          Olá Samara,

          Se você inspecionar a variável resultados, vai ver que uma das primeiras informações é o suporte:

          em resposta a: Padronização e zscore(knn) #34601
          Denny Ceccon
          Moderador

            Olá Caio, você pode especificar a qual aula exatamente se refere?

            em resposta a: Dependencia de Parsing de um par Verbo-substantivo #34591
            Denny Ceccon
            Moderador

              Olá Shin,

              A classe gramatical (verbo ou substantivo) você pode pegar do atributo pos_ dos tokens, e se o token for um substantivo, pode verificar no atributo dep_ se ele é um objeto; em caso afirmativo, pode associar o substantivo com o verbo que vem antes.

              Em inglês temos outras opções como o atributo noun_chunks do documento, que reconheceria por exemplo que “chefes de departamento” é uma coisa só, mas em português a biblioteca é mais limitada.

              em resposta a: Distribuição de Poisson #34589
              Denny Ceccon
              Moderador

                Olá Marcio,

                Não entendi sua pergunta, qual a relevância de empresas com capital aberto? Distribuição de quê? Toda distribuição se refere a uma população ou uma amostra de valores. Modelo de quê? Por favor detalhe melhor sua dúvida.

                • Esta resposta foi modificada 3 anos atrás por Denny Ceccon.
                em resposta a: calculo de média em uma lista #34577
                Denny Ceccon
                Moderador

                  Olá Arno,

                  Você pode fazer um loop por cada tupla (chave, valores) do dicionário e imprimir a chave e a média dos valores:

                  for key, values in dictionary.items():
                      print(key, values.mean())
                  em resposta a: Medidas de posição e dispersão no contexto do fine-tuning #34576
                  Denny Ceccon
                  Moderador

                    Olá Hagi,

                    Se o objetivo for avaliar os modelos exaustivamente, seria sim interessante repetir o processo todo a cada fit do grid search, pois em alguns casos a alteração dos hiperparâmetros pode mudar consideravelmente o comportamento do modelo. Entretanto, na prática isto geralmente não ocorre, principalmente com modelos grandes ou muitos dados, que levam muito tempo pra treinar. No final das contas vai da disponibilidade de tempo e de recursos, que você deve balancear com a confiança que quer ter no modelo final. Não existem regras muito fixas sobre isso, o desenvolvedor vai adquirindo uma intuição com a experiência e conforme se familiariza com cada caso. No final das contas, Ciência de Dados é tão arte quanto ciência! 🙂

                    em resposta a: Amplitude total de distribuição #34559
                    Denny Ceccon
                    Moderador

                      Olá Caio,

                      A amplitude é sempre dada pela diferença entre valor máximo e valor mínimo.

                      em resposta a: Validação cruzada #34555
                      Denny Ceccon
                      Moderador

                        Olá Renato,

                        Sim, na Parte 1 você encontra a sessão Avaliação de algoritmos de classificação, e a aula Validação cruzada.

                        em resposta a: Undersampling e oversampling para classificação multiclasse #34554
                        Denny Ceccon
                        Moderador

                          Olá Hagi,

                          É possível sim, os mesmos conceitos se aplicam. Inclusive a biblioteca imblearn aceita nativamente y com mais de duas categorias.

                          em resposta a: Como posso pré-processar texto NLP no spacy #34530
                          Denny Ceccon
                          Moderador

                            Olá Shin,

                            Você nem precisa do spacy, pode fazer uma função como a seguir:

                            def clean_text(text):
                                text = text.lower()
                                words = text.split()
                                keep = ['.', ',', '!', '?'] # supondo que quer manter alguma pontuação
                                clean_words = []
                                for word in words:
                                    clean_word = ''.join([c for c in word if c.isalpha() or c in keep]) # isalpha retorna True se o caractere for alfabético
                                    if clean_word is not '': # algumas palavras vão estar vazias, podemos ignorá-las
                                        clean_words.append(clean_word)
                                return ' '.join(clean_words)

                            Exemplo:

                            clean_text('Olá, bom dia @Shin! Você tem 1 minuto?')
                            # olá, bom dia shin! você tem minuto?
                            • Esta resposta foi modificada 3 anos, 1 mês atrás por Denny Ceccon.
                            em resposta a: TF -IDF par(verbo-substantivo) #34529
                            Denny Ceccon
                            Moderador

                              Olá Shin,

                              Suponho que você perguntou sobre um parágrafo. Até pode, mas a ideia do tf-idf é reconhecer as palavras mais distintivas de cada texto, e se analisamos o parágrafo inteiro, ele dificilmente vai se repetir em outros textos, o que compromete a ideia que fundamenta o tf-idf.

                              Denny Ceccon
                              Moderador

                                Olá Thiago, você até pode usar o train_test_split (depois que as janelas de tempo estão prontas, ou seja, depois de criar a variável X), mas se quiser gerar um gráfico no final com dados contínuos, é mais interessante separar alguns registros do final da sua tabela histórica, já que usando train_test_split, o dia em questão vai ser amostrado aleatoriamente.

                                em resposta a: Como faço parar calcular a acuracia da rede neural #34498
                                Denny Ceccon
                                Moderador

                                  Olá Thiago,

                                  A acurácia é uma medida de desempenho dos modelos de classificação, mas este é um problema de regressão, portanto temos que usar outras métricas. Na aula, nós usamos o mean absolute error, que é o erro absoluto. No final do treinamento, você pode observar que o MAE é de 0.1621; isto significa que a rede está errado 0.1621 no preço escalonado, para cima ou para baixo.

                                Visualizando 15 posts - 361 até 375 (de 403 do total)