- Este tópico contém 1 resposta, 2 vozes e foi atualizado pela última vez 3 anos, 5 meses atrás por .
Visualizando 2 posts - 1 até 2 (de 2 do total)
Visualizando 2 posts - 1 até 2 (de 2 do total)
- Você deve fazer login para responder a este tópico.
Home › Fóruns › Fórum Deep Learning de A à Z com PyTorch e Python › Como otimizar uma métrica utilizando Deep Learning?
Irei apresentar o contexto e em seguida minha dúvida:
Coletamos dados de uso de kubernets como uso de ram e cpu.
Também temos uma taxa de eficiência. Ela nos informa, de toda ram e cpu alocada, quanto foi utilizado.
Então digamos que eu tenha alocado 2GB de ram e 100 de processamento. Se no fim do dia eu utilizei 1% da ram e 1% do processamento, minha eficiência é de 2%.
A minha dúvida é:
É possível criar um modelo de ML ou DL que nos auxilie a maximizar a eficiência? Não temos os dados de modelos que são bem otimizados, apenas os que performam mal.
Ou recomendar o quanto de ram ou cpu serão necessárias para minimizar o uso de recursos desnecessário.
Se for possível, como devo realizar a solução? Qual seria a abordagem ideal? Algum tipo de modelo específico para isso?
Olá Lucas,
Este é um problema de otimização, então você precisa dar uma olhada em algoritmos de otimização. Aqui na IA Academy temos alguns cursos sobre o tema, recomendo começar por este: https://iaexpert.academy/courses/inteligencia-artificial-algoritmos-otimizacao-python/