
“Attention is all you need” é mais do que o título de um paper. É um ponto de virada na história da inteligência artificial. Publicado em 2017, o trabalho que introduziu os Transformers propôs abandonar as RNNs, até então padrão em tarefas de sequência, e substituí-las por um mecanismo de atenção que avalia, em cada ponto, o que realmente importa em um dado contexto. Em vez de processar dados em...