O recente desenvolvimento de modelos de machine learning mais sofisticados para processamento de linguagem natural também levou à evolução dos chatbots. Baseando-se no modelo GPT da empresa OpenAI, que foi desenvolvido para gerar textos convincentes a partir de um curto texto inicial, a Microsoft lançou, no final do ano passado, o DialoGPT, que foi treinado com 147 milhões de conversas do Reddit, com o mesmo objetivo em mente: gerar diálogos a partir de uma frase inicial. Em janeiro, o Google lançou o Meena, um chatbot que faz uso de uma “métrica de avaliação humana” para produzir diálogos mais próximos da realidade. E na última quarta-feira, o Facebook anunciou o Blender, um modelo que também produz diálogos realistas, mas através de uma abordagem um pouco diferente. Além de usar dados do Reddit, o chatbot foi treinado ainda com outros datasets de natureza mais variada, sendo um de conversas com conteúdo empático, outro representando diferentes personalidades, e um último contendo conhecimento geral sobre o mundo. Aliás, a tradução de blender é justamente misturador. Com essa mistura, o Blender ganhou características ainda mais humanas.
O modelo completo tem 9,4 bilhões de parâmetros, sendo o maior algoritmo de chatbot atualmente disponível. Segundo as avaliações do Facebook, 67% das pessoas que interagiram com a ferramenta consideram o Blender mais humano que o Meena, e 75% preferem a primeira opção quando as conversas são mais longas. Alguns usuários ainda consideraram o bot tão engajador quanto uma pessoa real. Um exemplo de diálogo pode ser visualizado no anúncio da ferramenta.
Apesar do enorme avanço, este ainda não é o modelo definitivo para o desenvolvimento de chatbots. O Blender ainda se confunde quando as perguntas são capciosas, quando a linguagem usada é muito complexa, e não consegue manter o tema da conversa por muito tempo. É possível que isso se deva ao fato de que o modelo ainda gera respostas usando padrões estatísticos para encontrar a resposta mais provável. É preciso o desenvolvimento de mecanismos de predição mais sofisticados para que os diálogos possam ser considerados análogos aos naturais.
A equipe do Facebook chegou a cogitar não lançar a ferramenta por temer seu uso indevido, mas concluiu que os benefícios são maiores que os riscos. Por enquanto, seu desempenho ainda é limitado, o que deve tornar fácil identificar aplicações com más intenções, e sua liberação torna possível que mais pesquisadores testem e desenvolvam modelos ainda mais eficientes.
O trabalho foi apresentado em formato de artigo, e o código está aberto para interessados, disponível em três tamanhos para permitir seu funcionamento em máquinas menos robustas.