Rede neural é capaz de identificar deepfakes

Apesar de a desinformação ter sempre sido uma preocupação do meio jornalístico, esse problema tem se tornado ainda mais evidente com os recentes avanços tecnológicos na manipulação de imagens e vídeos. Atualmente, é possível manipular o significado semântico de uma imagem, por exemplo, usando algumas técnicas como clonagem, fatiamento de objetos e remoção. Os resultados são tão surpreendentes que deram origem a um termo próprio: deepfake. Os deepfakes são material visual manipulado a partir de conteúdo real para representar uma situação que nunca aconteceu de verdade. As consequência diretas podem ser catastróficas: imagine uma pessoa famosa representada numa situação condenável. Mas a gravidade não acaba aí. Se vai ser cada vez mais difícil discriminar material original daquele manipulado, os próprios meios de comunicação correm o risco de se verem numa crise de credibilidade de severidade inédita.

Felizmente, os mesmos avanços tecnológicos que permitem o surgimento do problema podem gerar possíveis soluções. Vários cientistas trabalham em mecanismos para identificar deepfakes e assim salvaguardar a circulação de informação confiável. Um desses trabalhos, realizado por pesquisadores da Universidade da Califórnia em Riverside, acaba de ser publicado na edição de julho da revista IEEE Transactions on Image Processing.

Os autores argumentam que o problema existe porque é muito difícil reconhecer essas manipulações visualmente. Elas são bem sucedidas justamente porque conseguem enganar espectadores. Mas mesmo as melhores manipulações ainda não são capazes de gerar resultados naturais no nível dos pixeis, e essas “assinaturas” podem ser identificadas usando um método adequado. Os pesquisadores propuseram uma arquitetura de machine learning para localização de manipulações dentro de uma imagem usando três blocos: a reamostragem de features, células de memória longa de curta-duração (long short-term memory, LSTM) e uma rede encoder-decoder. A reamostragem de features permite a captura de artefatos, como perda de qualidade resultante do formato JPEG, rotação e serrilhamento em volta de objetos cortados/inseridos. As células de LSTM e o encoder são responsáveis por identificar as características discriminativas entre regiões manipuladas e não-manipuladas. Então, o decoder aprende o mapeamento de mapas de features em baixa resolução para predições da localização de manipulações, na escala de pixel, na imagem original.

Em termos práticos, pode ser dito que o que o algoritmo proposto faz é reconhecer as bordas de objetos que tenham sido inseridos ou removidos de uma imagem. Como toda pessoa hábil no Photoshop sabe, uma manipulação passa por crível se as bordas tiverem certas características em relação ao resto da imagem, o que geralmente é conseguido usando técnicas de suavização. Entretanto, o resultado só se mostra aceitável até determinada resolução. No nível de pixeis, as bordas de objetos manipulados costumam, por exemplo, ser mais suaves que aquelas de objetos naturais. O algoritmo foi treinado usando um amplo banco de dados rotulado, e assim seus parâmetros foram otimizados para detectar regiões de manipulação em novas imagens.

Apesar de o algoritmo ter sido capaz de identificar imagens e vídeos manipulados com alta precisão, os pesquisadores sugerem que o uso dessas ferramentas ainda seja feito de forma limitada. Mesmo um banco de dados extenso não tem como cobrir todas as possibilidades de manipulação a que uma imagem pode ser submetida. Por isso, é mais provável que, no futuro imediato, modelos desse tipo sejam usados para identificar imagens suspeitas, as quais devem ser checadas por especialistas humanos. Ainda assim, dado o volume atual de publicação de imagens e vídeos na internet, essa já é uma ajuda muito bem-vinda para a verificação de sua autenticidade.