Transformers em PLN (parte 1 de 2): mecanismo de atenção

Conheça o mecanismo de atenção, que é a base do transformer, a arquitetura de rede mais recente para PLN, e que permite que uma rede focalize em trechos específicos de uma sequência de dados para produzir resultados mais precisos.