Respostas no Fórum

Visualizando 7 posts - 1 até 7 (de 7 do total)
  • Autor
    Posts
  • em resposta a: Distância de Levenshtein #30775
    Nelson
    Participante

      Obrigado!

      em resposta a: Base com dados categóricos #23449
      Nelson
      Participante

        Outra dúvida também em relação ao uso do PCA para geração da visualização posterior mostrada nos vídeos: seria necessário também, após o comando do pca.fit_transform , comandar o print(pca.explained_variance_ratio_.sum()) para verificar o quanto a redução da dimensionalidade ainda representa do original ou, nesse caso específico para geração do gráfico, não se faria necessário? Obrigado !

        em resposta a: Base com dados categóricos #23443
        Nelson
        Participante

          Obrigado pelo retorno.
          No caso de base de dados com variáveis, por exemplo, faixa de idade, gênero, Estado e categoria S/N, normalmente é mais adequado, antes de rodar no k-means, utilizar o pd.get_dummies, o labelencoder ou mesmo o one hot encoding? Em cada variável poderia utilizar uma forma diferente? É necessário também transformar em array após o procedimento anterior?
          Obrigado.

          em resposta a: Regex #23371
          Nelson
          Participante

            Excelente ! Funcionou. Muito obrigado !

            em resposta a: Google colab #23179
            Nelson
            Participante

              Ok, vou verificar. Obrigado !

              em resposta a: Google colab #23173
              Nelson
              Participante

                Não estou usando GPU.

                em resposta a: Dúvida PyCaret #22649
                Nelson
                Participante

                  Até achei que era por isso do enable_colab, mas rodei depois e permaneceu o problema. O estranho é que, por estar rodando pelo servidor do Google, não deveria estar consumindo da minha memória RAM, não é? Verifiquei e chegou a usar quase que 100%, mesmo configurado corretamente no Google Colab para o servidor do Google…tenho 12 Gb de RAM. Fiz um teste com 1.000 textos e rodou certinho, mas a partir de uns 10.000 começa a dar esse problema….

                Visualizando 7 posts - 1 até 7 (de 7 do total)