Home › Forums › Fórum Deep Learning de A à Z com PyTorch e Python › Como otimizar uma métrica utilizando Deep Learning?
- This topic has 1 reply, 2 voices, and was last updated 3 years, 7 months ago by
Denny Ceccon.
- AuthorPosts
- 3 de September de 2021 at 21:34 #30673
Irei apresentar o contexto e em seguida minha dúvida:
Coletamos dados de uso de kubernets como uso de ram e cpu.
Também temos uma taxa de eficiência. Ela nos informa, de toda ram e cpu alocada, quanto foi utilizado.
Então digamos que eu tenha alocado 2GB de ram e 100 de processamento. Se no fim do dia eu utilizei 1% da ram e 1% do processamento, minha eficiência é de 2%.A minha dúvida é:
É possível criar um modelo de ML ou DL que nos auxilie a maximizar a eficiência? Não temos os dados de modelos que são bem otimizados, apenas os que performam mal.
Ou recomendar o quanto de ram ou cpu serão necessárias para minimizar o uso de recursos desnecessário.
Se for possível, como devo realizar a solução? Qual seria a abordagem ideal? Algum tipo de modelo específico para isso?4 de September de 2021 at 09:38 #30674Olá Lucas,
Este é um problema de otimização, então você precisa dar uma olhada em algoritmos de otimização. Aqui na IA Academy temos alguns cursos sobre o tema, recomendo começar por este: https://iaexpert.academy/courses/inteligencia-artificial-algoritmos-otimizacao-python/
- AuthorPosts
- You must be logged in to reply to this topic.