AI 모델 개발: 대규모 언어모델 세부 – RAG
ㅁ 대규모 언어모델 세부
1. RAG
ㅇ 정의:
Retrieval-Augmented Generation의 약자로, 대규모 언어모델(LLM)이 응답을 생성하기 전에 외부 지식베이스나 데이터베이스에서 관련 정보를 검색(Retrieval)하여 이를 기반으로 답변을 생성(Generation)하는 아키텍처.
ㅇ 특징:
– LLM의 최신성 한계를 보완하여, 학습 시점 이후의 정보나 도메인 특화 지식을 활용 가능.
– 검색된 문서를 컨텍스트로 포함시켜 환각(Hallucination) 현상을 줄임.
– 검색 품질에 따라 최종 응답 품질이 크게 좌우됨.
– 검색 모듈과 생성 모듈이 분리되어 있어 모듈별 최적화 가능.
ㅇ 적합한 경우:
– 최신 뉴스, 법률, 의료 등 시시각각 변하는 정보가 필요한 경우.
– 특정 도메인의 방대한 문서에서 정확한 근거 기반 답변이 필요한 경우.
– 모델 파라미터 업데이트 없이 지식 확장이 필요한 경우.
ㅇ 시험 함정:
– RAG는 모델 파라미터 자체를 업데이트하는 학습 방법이 아님.
– 단순히 검색과 요약을 결합한 것과 혼동하면 안 됨.
– 검색 단계 없이도 RAG가 동작한다고 기술하는 문장은 오답.
ㅇ 시험 대비 “패턴 보기” 예시:
O: “RAG는 외부 지식 검색 결과를 LLM 입력에 포함시켜 응답을 생성한다.”
X: “RAG는 LLM의 파라미터를 실시간으로 업데이트하여 최신 정보를 반영한다.”
O: “RAG는 환각 현상을 줄이는 데 도움이 될 수 있다.”
X: “RAG는 검색 단계를 생략하고도 최신 정보를 반영할 수 있다.”
ㅁ 추가 학습 내용
RAG와 관련해 시험에 자주 나오는 개념은 다음과 같다.
먼저 벡터 데이터베이스(Vector DB)와 임베딩(Embedding) 생성 과정이 중요하다. 검색 단계에서 문서나 질의를 벡터로 변환하고, 코사인 유사도나 내적과 같은 유사도 검색 방법을 통해 관련 문서를 찾는다.
RAG 구현 시에는 BM25 같은 전통적 검색 방법과 딥러닝 기반 Dense Retrieval이 비교될 수 있다.
시험에서는 RAG와 Fine-tuning, LoRA, Prompt Engineering의 차이점을 묻는 경우가 많다. 이때 RAG는 비파라미터적 지식 확장 방식이라는 점을 구분해야 한다.
또한 Retrieval 단계에서 사용하는 랭킹 알고리즘, 문서를 나누는 Chunking 전략, 그리고 Context Window 제한이 성능에 미치는 영향도 숙지해야 한다.