Home › Fóruns › Fórum Machine Learning e Data Science com Python de A à Z › cross_val_score
Marcado: Validação cruzada – implementação
- Este tópico contém 3 respostas, 2 vozes e foi atualizado pela última vez 3 anos, 3 meses atrás por Fábio Spak.
- AutorPosts
- 28 de julho de 2021 às 14:41 #29910
Pelo meu entendimento , a Validação cruzada é utilizada pera verificarmos a melhor acuracia do modelo, gerando n bases de treino e teste, de acordo com o parametro cv. A minha duvida é , de posse da melhor acuracia, como resgatar o modelo gerado com esta acuracia.
3 de agosto de 2021 às 22:29 #29972Olá Roberto, com a validação cruzada você faz uma avaliação de como esta se comportando o seu modelo. Uma vez que o modelo esteja com uma boa acurácia, você pode salva-lo veja nesse link como fazer isso.
Complemento de leitura
https://machinelearningmastery.com/save-load-machine-learning-models-python-scikit-learn/
Fabio
18 de agosto de 2021 às 19:13 #30121Boa Noite.
A minha pergunta não foi como salvar o model, pois salvar um modelo que eu treinei eu sei fazer. A minha duvida é como obter o modelo no qual a Validação cruzada apontou a melhor acuracia.
No Aguardo.
ats Roberto
19 de agosto de 2021 às 09:28 #30127Olá Roberto, segue a resposta do instrutor Denny:
O objetivo da validação cruzada não é recuperar o melhor modelo, mas sim verificar se ele é generalizável, o que se verifica principalmente pelo desvio padrão das métricas de desempenho nos diferentes folds do dataset. Por isso, a função cross_val_score não permite recuperar nenhum dos modelos individuais. É possível fazer isso manualmente, mas aí precisa escrever seu próprio loop de validação, mas enfatizo que esta ideia nem é implementada na função cross_val_score porque não faz sentido, tecnicamente o modelo é o mesmo e o resultado só foi melhor “por acaso”, em função do fold usado, o que não tem valor prático nenhum quando vamos usar o modelo com novos dados por exemplo.
Fabio
- AutorPosts
- Você deve fazer login para responder a este tópico.