Novo framework permite a detecção e rotulagem de objetos inéditos em imagens

Novo framework permite a detecção e rotulagem de objetos inéditos em imagens

Os algoritmos que detectam e classificam objetos em imagens têm uma enorme limitação: eles só são capazes de identificar as categorias que estavam presentes durante seu treinamento. Qualquer classe adicional de interesse demanda, em primeiro lugar, uma nova coleção de dados rotulados, e em segundo, uma nova rodada de treinamento utilizando esses dados. Os seres humanos, entretanto, são capazes de detectar objetos que nunca virão antes, e às vezes até a inferir o que eles sejam, com base na similaridade com outros objetos conhecidos.

Um trabalho publicado por cientistas da Universidade Técnica de Munique, na Alemanha, e da Universidade Carnegie Mellon, nos Estados Unidos, propõe uma solução em inteligência artificial para esta tarefa, que é denominada de descoberta, detecção e localização de novas classes (NCDL, novel class discovery, detection and localization). Na sua abordagem, batizada de rede NCDL baseada em região para detecção de objetos em duas fases (RNCDL, two-stage object detection network Region-based NCDL), uma rede neural é treinada primeiro em um regime supervisionado, com dados rotulados, aprendendo a localizar e classificar os objetos encontrados. Na sequência, uma etapa de transfer learning, a rede é utilizada para analisar as imagens não rotuladas, mas o módulo classificatório é complementado com novas camadas para a classificação de classes inéditas. A saída da rede é utilizada em um modelo de clusterização para que os novos objetos recebam um rótulo adequado por similaridade semântica.

O método foi avaliado com datasets tradicionais da área de visão computacional, como COCO e LVIS, onde metade dos dados tiveram os rótulos removidos para utilização na segunda etapa do treinamento. Os resultados foram significativamente melhores que métodos baseline e o estado-da-arte disponível até então.

Os dados e o código desenvolvidos estão disponíveis para consulta no GitHub. Mais informações técnicas, assim como uma apresentação do método em vídeo, podem ser conferidas no blog da publicação.

Sobre o autor

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.