AI 시스템 구축: 지속학습/재학습 – Catastrophic Forgetting

ㅁ 지속학습/재학습

ㅇ 정의:
기존에 학습한 지식을 유지하면서 새로운 데이터를 학습하는 기술. 주로 모델이 새로운 태스크를 학습할 때 과거 지식을 잃어버리는 문제(Catastrophic Forgetting)를 방지하기 위해 사용됨.

ㅇ 특징:
– 새로운 데이터 유입 시 전체 모델을 재학습하지 않고 점진적으로 업데이트 가능
– 메모리 리소스 절약 및 학습 시간 단축
– Catastrophic Forgetting 방지를 위해 가중치 고정, 중요도 기반 업데이트, 리허설(rehearsal) 기법 활용

ㅇ 적합한 경우:
– 실시간 데이터가 지속적으로 유입되는 환경 (예: IoT 센서 데이터, 온라인 추천 시스템)
– 전체 데이터셋을 저장하거나 재학습하기 어려운 경우

ㅇ 시험 함정:
– 단순히 새로운 데이터를 추가 학습시키는 것과 지속학습을 혼동하는 경우
– Catastrophic Forgetting을 완전히 제거할 수 있다고 단정하는 문장
– ‘재학습’과 ‘지속학습’의 차이를 구분하지 못하는 경우

ㅇ 시험 대비 “패턴 보기” 예시:
O: 지속학습은 기존 지식을 유지하며 새로운 데이터를 학습하는 방법이다.
X: 지속학습은 새로운 데이터를 학습하면 기존 지식은 완전히 잊어버린다.

================================

1. Catastrophic Forgetting

ㅇ 정의:
신경망 모델이 새로운 태스크를 학습할 때, 이전에 학습한 정보를 급격히 잃어버리는 현상.

ㅇ 특징:
– 주로 순차 학습(Sequential Learning) 환경에서 발생
– 기존 태스크에 대한 성능이 급격히 하락
– 가중치 업데이트가 과거 학습 내용을 덮어씀

ㅇ 적합한 경우:
– 이 용어 자체는 문제 상황을 설명하는 것이므로 ‘적합한 경우’라기보다 ‘발생 가능 환경’을 이해해야 함
– 예: 이미지 분류 모델이 새로운 클래스 학습 후 기존 클래스 분류 성능이 저하되는 경우

ㅇ 시험 함정:
– Catastrophic Forgetting이 반드시 모든 지속학습 상황에서 발생한다고 단정하는 문장
– 단순 데이터 부족 문제와 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
O: Catastrophic Forgetting은 순차 학습 시 기존 지식을 급격히 잃는 현상이다.
X: Catastrophic Forgetting은 데이터가 많을수록 심해진다.

ㅁ 추가 학습 내용

Catastrophic Forgetting 방지 기법에는 다음이 있다.
EWC(Elastic Weight Consolidation): 중요한 가중치의 변화를 억제하여 이전 지식을 보존하는 방식
LwF(Learning without Forgetting): 이전 모델의 출력을 유지하도록 새로운 데이터 학습 시 제약을 주는 방식
리허설 기반 학습(Replay Buffer): 과거 데이터 일부를 저장해 두고 새로운 학습 시 함께 학습하는 방식
지식 증류(Knowledge Distillation): 기존 모델의 지식을 새로운 모델로 전달하여 성능 저하를 방지하는 방식

지속학습(Continual Learning)의 주요 시나리오는 다음 세 가지이다.
태스크 불변: 입력과 출력의 태스크가 변하지 않는 경우, Catastrophic Forgetting 발생 가능성이 낮음
태스크 증분: 새로운 태스크가 추가되지만 태스크 구분 정보가 주어지는 경우, 발생 가능성 중간 수준
클래스 증분: 새로운 클래스가 추가되고 태스크 구분 정보가 없는 경우, 발생 가능성이 높음

재학습(Retraining)과 지속학습의 차이
재학습: 전체 데이터를 다시 학습하여 모델을 갱신
지속학습: 기존 지식을 유지하면서 새로운 데이터나 태스크를 추가로 학습

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*