Na última postagem, eu tratei do mecanismo de atenção, que é a base sobre a qual a estrutura do transformer se sustenta, e que garante sua alta eficiência em tarefas
Transformers em PLN (parte 1 de 2): mecanismo de atenção
Uma estrutura de rede neural que tem ganhado relevância recentemente no mundo do Processamento de Linguagem Natural (PLN) é o transformer. Ele vem aos poucos substituindo as redes neurais recorrentes