Apesar de as redes neurais serem capazes de resolver tarefas relativamente complexas, é muito difícil interpretar como elas tomam suas decisões, razão pela qual seu funcionamento é considerado uma caixa preta. Esta baixa interpretabilidade pode esconder o fato de que, às vezes, os modelos até podem entregar um alto desempenho, mas eles fazem isso encontrando soluções “atalho”, que não representam um conhecimento real e generalizável do mundo. Por exemplo, uma rede treinada para diferenciar gatos de leões pode perceber que, no geral, gatos aparecem em contextos domésticos enquanto que leões aparecem na natureza, e guiar sua decisão em função disso. Em aplicações relacionadas à saúde, este problema se torna especialmente relevante, já que nós não queremos que um algoritmo classifique uma imagem como pertencente a uma pessoa doente baseada, por exemplo, em uma característica peculiar, e às vezes até invisível aos nossos olhos, das imagens produzidas por um hospital com alta incidência da doença.
Foi tentando resolver esta limitação que pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, desenvolveram um trabalho focado em soluções atalho. Eles partiram de um modelo contrastivo, que é construído para aprender a reconhecer uma classe comparando, ao mesmo tempo, uma amostra com um exemplo positivo (mesma classe) e negativo (classe diferente). Ao longo da pesquisa, eles perceberam que os modelos tendiam a se basear nos atributos mais simples presentes nos dados, como no exemplo do cenário apresentado acima, para direcionar suas decisões. Então, eles testaram um novo conjunto de dados mais desafiador, onde as semelhanças não fossem tão evidentes. Nesta nova situação, os modelos aprenderam a focar em características mais complexas e informativas. Entretanto, eles “esqueceram” que as características mais simples também eram relevantes.
Para contrabalancear este efeito, eles estão desenvolveram um novo processo batizado de modificação implícita de atributos, onde o modelo primeiro aprende as características simples, que são depois removidas, dando oportunidade para ele aprender também a considerar as características complexas. Desta forma, o modelo foi capaz de discriminar imagens eficientemente levando todos os atributos em consideração. A técnica foi testada com imagens de carros e de raio-X para detecção da doença pulmonar obstrusiva crônica.
Os pesquisadores esperam que seu trabalho convirja com algumas das maiores questões relacionadas a sistemas de deep learning, como por exemplo por que eles falham, e se é possível saber antecipadamente as situações onde eles vão tender a falhar.
Os resultados serão apresentados na Conferência de Sistemas Neurais de Processamento de Informação (NeuIPS), em dezembro.
Ola Danny. Poderia, por gentileza, citar o trabalho que será apresentado nesta conferência?
Este aqui: https://neurips.cc/Conferences/2021/Schedule?showEvent=28075
Valeu Denny.