Transformer는 자연어 처리의 판도를 바꿔버린 구조다! 2017년, 구글 브레인 팀이 *“Attention Is All You Need”라는 논문을 내면서 등장했고, 이후 인공지능 역사에 한 획을 그었다. 이전엔 텍스트 처리를 위해 순차적인 구조의 RNN, LSTM 등이 쓰였지만, Transformer는 모든 걸 한 번에 처리해버리는 놀라운 방식을 가져왔다.*논문 출처: Vaswani et al., 2017. Attention Is All You Need, NeurIPS.⸻왜 Transformer가 필요했을까?기존 LSTM이나 GRU는 문장의 앞에서부터 차례대로 처리하느라 긴 문장 처리에 약했고, 병렬 처리가 불가능했다.예를 들어, 100개의 단어를 처리하려면 순서대로 100번 돌아야 했으니 속도..