Generative Pre-trained Transformer, 즉 GPT는 특유의 범용성과 확장 가능성으로 다양한 자연어 처리 과제에서 놀라운 성과를 보여 주고 있습니다. 그 이름에서 알 수 있듯, GPT는 'Transformer' 구조에 기초하여 설계되었습니다. Transformer는 2017년, Attention Is All You Need (Vaswani et al.) 논문에서 소개된 이후 엄청난 영향력을 발휘하였는데, 그 다양한 변형들은 자연어 처리 모델뿐만 아니라 시각 모델에도 차용되며 새로운 기술의 최첨단을 만들어냈습니다. GPT는 그 혁신의 한 물결로써, 원본의 Transformer 구조를 변형하여 '생성'이라는 과제에 최적화된 형태를 찾아내었습니다. 비슷하지만 다른 Transformer와..