Pesquisa sugere como corrigir viés em algoritmos de inteligência artificial

Uma preocupação constante de desenvolvedores de sistemas de inteligência artificial é com a criação de algoritmos que não sejam enviesados. O viés, geralmente referenciado pela palavra em inglês, bias, ocorre quando um modelo é treinado com dados que não representam a população inteira de um problema, mas apenas uma fração dela. Isto faz com que o modelo não performe bem quando estiver fazendo predições em instâncias de fora da distribuição (out of distribution) em que ele foi treinado, o que ocorre com frequência em sua aplicação prática. É como treinar um sistema para reconhecer a marca de carros mas usar apenas fotos de carros vermelhos; quando for avaliar um carro verde, o algoritmo corre o risco de perder sua eficiência. Isto é um problema evidente em questão de qualidade de predição, mas se torna muito maior quando, por exemplo, a inteligência artificial estiver sendo usada para decidir quem deve receber crédito pessoal, o que pode levá-la a tomar decisões baseadas em preconceitos.

Uma forma de mitigar este problema é utilizando dados mais representativos, mas nem sempre é fácil ou viável mensurar a qualidade dos dados ou mesmo obtê-los. Por isso, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, resolveram estudar diretamente o funcionamento dos algoritmos na busca de uma solução.

Os cientistas utilizaram datasets consolidados da área de visão computacional para observar como redes neurais convolucionais se comportavam na predição de imagens de fora da distribuição. Para isso, os modelos foram treinados nas tarefas de categorizar tanto o tipo de objeto quando o ponto de vista em que ele era apresentado (por exemplo, se frontal ou lateral). Os pesquisadores usaram um número fixo de imagens, fazendo combinações entre o tipo do objeto e seu ponto de vista. Num primeiro momento, eles observaram que as arquiteturas mais tradicionais tendiam a perder desempenho consideravelmente ao analisar novas imagens com combinações não vistas durante o treinamento.

Numa segunda etapa, eles desenvolveram uma arquitetura de rede isolada para cada uma das tarefas, ou seja, nenhum dos neurônios dedicados para cada tarefa era compartilhado. Neste paradigma, os modelos resultantes apresentaram melhora considerável na classificação de combinações inéditas. Os resultados foram similares para diferentes redes convolucionais e datasets.

O trabalho, publicado em fevereiro, conclui que a presença de neurônios especializados na segunda estrutura foi responsável pelo aumento de desempenho, o que sinaliza que este tipo de arquitetura deve ajudar desenvolvedores a contornar o difícil problema de viés em datasets e, subsequentemente, em algoritmos de inteligência artificial.

Na continuidade do trabalho, os cientistas pretendem testar sua solução com tarefas de maior complexidade, assim como estudar maneiras de induzir o surgimento de neurônios especializados nas estruturas de rede neural já consolidadas.

Deixe um comentário

O seu endereço de e-mail não será publicado.

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.