Respostas no Fórum
- AutorPosts
- 28 de outubro de 2023 às 09:36 em resposta a: Divergência entre valores gerados no “MIN_SAMPLES_SPIT” da aula 26 e 27 #42559
Bem observado, Gustavo!
Como esse curso foi gravado já há algum tempo, o professor não vai lembrar da divergência, mas o que pode ter ocorrido é que ele executou o código mais de uma vez, aí essas pequenas diferenças são normais. Entretanto, o mais importante é entender os conceitos e o processo apresentado.
26 de outubro de 2023 às 11:40 em resposta a: Avaliação de Algortimos de Classificação – Aula Precision e Recall #42549Marcos, tem razão, a apresentação ficou confusa e vou preparar uma errata. Entretanto, adianto que a forma correta de apresentar a matriz de confusão é essa:
25 de outubro de 2023 às 18:46 em resposta a: Probabilidade de Pertencimento ou Previsão da Classe? #42546Olá Ygor,
São probabilidades sim, mas elas estão sempre associadas à classe 1: 97% de chances de pertencer à classe 1 (ou seja, deve ser 1) e 3% de chances de pertencer à classe 1 (ou seja, deve ser 0).
Olá Gustavo,
No primeiro caso, quando queremos escolher mais do que uma coluna, precisamos usar a notação de duplo colchetes, mas para uma coluna só, tanto faz.
No segundo, a notação dentro do colchetes retorna um vetor com valores booleanos, indicando onde os resultados da coluna feedback são iguais a zero, e depois essa “máscara” é aplicada a
reviews_df
para recuperar apenas os registros que atendem a esta condição.Olá Gustavo,
Nesse caso é porque um objeto da classe
pd.DataFrame
contém um método chamadohist
, então você pode usardf.hist()
como atalho, mas fazer da forma tradicional também funciona. Na verdade, o métodohist
possivelmente chama a funçãohist
por baixo dos panos.13 de outubro de 2023 às 14:36 em resposta a: Sobre classes para o classificador de aprendizado de máquina #42377Olá Jean,
Não há limite para o número de classes, você pode tentar qualquer algoritmo de classificação, a princípio nenhum é mais indicado que outro por causa disso.
13 de outubro de 2023 às 14:33 em resposta a: Erro no notebook do curso, na parte do modelo Q&A #42376Olá Cesar,
Isso geralmente é bug na versão que você tem instalada da biblioteca, nesse caso TensorFlow. Tenta fazer o downgrade. A versão 2.8 deve funcionar.
14 de agosto de 2023 às 11:50 em resposta a: Dúvida ajuste de gráficos da função de antecedentes e consequentes. #41591Olá Alexandre,
Desculpe mas como costuma dar trabalho analisar códigos de terceiros, nós temos como política não inspecionar implementações pessoais, apenas garantimos que o código apresentado nas aulas vai funcionar.
Entretanto, dando uma olhada rápida no seu notebook, eu **desconfio** que o problema é com o uso da função
plot
do matplotlib. Tente outros tipos de gráfico, como por exemploscatter
. Se não resolver, pelo menos te dá uma ajuda na direção correta.Olá Rogério,
Este é um procedimento estatístico relacionado às limitações do sistema, tem uma explicação aqui: https://www.quora.com/Why-do-we-subtract-1-when-calculating-the-degrees-of-freedom-of-a-chisquare-distribution?share=1
Olá José,
De fato existe uma diferença entre os operadores “and” e “&”, você pode encontrar mais informações aqui: https://www.geeksforgeeks.org/difference-between-and-and-in-python/
Em alguns casos, o resultado coincide, mas não em todos.
Olá Rogério,
Até seria possível aplicar somente nos registros errados, pois para aqueles que a rede acertou o erro é igual a 0 e os cálculos ficam zerados, mas como matematicamente a rede neural trabalha com cálculos matriciais e não vetoriais, ou seja, os registros são apresentados em batches, mais de um cada vez, na prática nós calculamos independentemente de ter acertado ou errado. Neste caso, o comum é “sumarizar” o erro do batch com o erro médio, e fazer os cálculos de backpropagation como se fosse só um registro.
Sobre a taxa de aprendizagem, tecnicamente pode ser qualquer valor, mas existem alguns valores “clássicos” que são mais comuns na área, nós costumamos usar esses valores no início do trabalho e fazer ajustes ao longo do estudo.
Esses desafios são curiosos porque eles deixam evidente que nem sempre é tão simples resolver um problema de machine learning, esse parece ser um caso desses. Várias coisas inesperadas podem acontecer durante o desenvolvimento da solução, como o vazamento de dados, onde, de forma inadvertida e difícil de identificar, o modelo tem acesso a informações dos dados de validação junto com os dados de treinamento, o que diminui sua eficiência quando estiver sendo utilizado com dados realmente novos. Imagine, por exemplo, que os dados que o desafio disponibilizasse para treinamento são apenas referentes a um subgrupo, como um público específico, então na validação você até pode encontrar bons resultados, mas como os dados de teste não são restritos a este público, o modelo não performa tão bem. Esta situação seria um tópico avançado que nós não contemplamos no curso, para se aprofundar vale a pena procurar na plataforma do Kaggle se os vencedores dos desafios publicaram suas soluções.
Tente alterar a última linha para:
print(scaler_y.inverse_transform(p[‘predictions’].reshape(1, -1))
Olá Luis,
Você não alterou o código? A variável
file_name
é definida no início do for loop, na segunda linha da definição da função:def return_corona_df(json_filenames, df):
for **file_name** in json_filenames:Se a indentação estiver correta, esse erro não é possível.
Olá João,
Como você está avaliando nos dados de treinamento, deve estar ocorrendo overfitting. Para evitar isso é importante utilizar um dataset de validação durante o desenvolvimento do algoritmo.
- AutorPosts