Respostas no Fórum
- AutorPosts
Obrigado!
Outra dúvida também em relação ao uso do PCA para geração da visualização posterior mostrada nos vídeos: seria necessário também, após o comando do pca.fit_transform , comandar o print(pca.explained_variance_ratio_.sum()) para verificar o quanto a redução da dimensionalidade ainda representa do original ou, nesse caso específico para geração do gráfico, não se faria necessário? Obrigado !
Obrigado pelo retorno.
No caso de base de dados com variáveis, por exemplo, faixa de idade, gênero, Estado e categoria S/N, normalmente é mais adequado, antes de rodar no k-means, utilizar o pd.get_dummies, o labelencoder ou mesmo o one hot encoding? Em cada variável poderia utilizar uma forma diferente? É necessário também transformar em array após o procedimento anterior?
Obrigado.Excelente ! Funcionou. Muito obrigado !
Ok, vou verificar. Obrigado !
Não estou usando GPU.
Até achei que era por isso do enable_colab, mas rodei depois e permaneceu o problema. O estranho é que, por estar rodando pelo servidor do Google, não deveria estar consumindo da minha memória RAM, não é? Verifiquei e chegou a usar quase que 100%, mesmo configurado corretamente no Google Colab para o servidor do Google…tenho 12 Gb de RAM. Fiz um teste com 1.000 textos e rodou certinho, mas a partir de uns 10.000 começa a dar esse problema….
- AutorPosts