No mundo do processamento de linguagem natural, os grandes modelos de linguagem (LLMs) têm sido uma revolução para várias aplicações. No entanto, esses modelos têm enfrentado um problema persistente conhecido como “alucinação”, em que geram informações que não estão alinhadas com fatos do mundo real. Isso representa um desafio significativo, especialmente em campos críticos como saúde e direito, onde a geração de texto confiável é fundamental.
A causa raiz desse problema de alucinação pode ser rastreada até o objetivo de treinamento dos LLMs, que visa minimizar a divergência entre os dados e as distribuições do modelo. Esse objetivo pode inadvertidamente levar o modelo a atribuir probabilidades não nulas a frases que não se alinham completamente com seus dados de treinamento, resultando em imprecisões factuais.
Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e da Microsoft propuseram uma solução inovadora chamada Decodificação por Camadas Contrastantes (DoLa). Essa abordagem aproveita a arquitetura em camadas dos LLMs baseados em transformers. Enquanto camadas mais antigas capturam informações de nível inferior, como etiquetas de parte do discurso, camadas posteriores codificam um significado mais semântico. Ao calcular a probabilidade de saída da próxima palavra com base na diferença nos logits de uma camada superior, o DoLa efetivamente fundamenta os LLMs na realidade, reduzindo as alucinações.
A eficácia do DoLa foi validada por meio de experimentos. Ele melhora a integridade dos LLMs em diversos benchmarks, como TruthfulQA e FACTOR. Ele também aprimora o raciocínio factual em cenários como StrategyQA e GSM8K cc. Além disso, quando testado com o GPT-4 para geração de texto aberto, o DoLa produz consistentemente respostas mais informativas e factualmente precisas, resultando em classificações mais altas pelos usuários.
Embora o DoLa mostre promessa em mitigar as alucinações e melhorar a precisão factual, existem áreas a serem exploradas. Os pesquisadores ainda não examinaram o desempenho do modelo em tarefas como seguir instruções ou incorporar feedback humano. Além disso, o DoLa depende exclusivamente do conhecimento existente do modelo, sem recuperação externa ou ajuste fino, o que limita seu potencial para melhorias adicionais.
Ainda assim, o DoLa representa um avanço significativo na abordagem do problema de alucinação em grandes modelos de linguagem. Ao se concentrar em camadas mais profundas do modelo, o DoLa oferece uma promissora via para tornar os LLMs mais confiáveis, especialmente em aplicações de alto risco. À medida que a pesquisa nessa área avança, podemos antecipar modelos de linguagem mais robustos que mantenham a integridade dos dados e atendam às demandas de domínios críticos.
O artigo e o código relacionado à pesquisa estão disponíveis para consulta.