최신 기술의 발전 속도가 워낙 빠르다 보니 시기를 조금 놓친 감은 있지만, 예전에 정리해두었던 내용을 그대로 두기는 아쉬워서 간단하게 요약해서 공유하고자 합니다. 자세한 내용들이 궁금하시면 위키독스 같은 곳에서 찾아보시면 좋습니다. LLM의 근간이 되는 트랜스포머(Transformer) 아키텍처가 목적에 따라 어떻게 분화되었는지, 그리고 현재 RAG(검색 증강 생성) 시스템에서는 이 모델들이 어떤 역할을 하고 있는지 정리해 보았습니다. 기초적인 내용이지만, NLP(자연어 처리)의 흐름을 이해하는 데 도움이 되기를 바랍니다. 1. 트랜스포머 아키텍처의 분화2017년 구글이 'Attention Is All You Need' 논문을 통해 트랜스포머(Transformer) 모델을 발표한 이후, NLP 모델은 사..