AI 시스템 구축: 지속학습/재학습 – Continual Learning

ㅁ 지속학습/재학습

ㅇ 정의:
지속학습(Continual Learning)은 모델이 새로운 데이터나 태스크를 순차적으로 학습하면서 이전에 학습한 지식을 유지하고 확장하는 기법을 말한다. 기존 학습 내용을 완전히 잊지 않으면서도 새로운 정보를 반영하는 것이 핵심이다.

ㅇ 특징:
– Catastrophic Forgetting(재앙적 망각) 문제를 최소화해야 함
– 데이터가 시간에 따라 점진적으로 변화하는 환경에서 유용
– 메모리 제약, 연산 자원 제약 내에서 효율적으로 동작해야 함
– Replay Buffer, Regularization, Dynamic Architecture 등의 접근 방식 존재

ㅇ 적합한 경우:
– IoT 센서 데이터처럼 지속적으로 변화하는 데이터 스트림 환경
– 사용자 맞춤형 추천 시스템에서 사용자 행동 패턴이 변하는 경우
– 장기간 운영되는 AI 서비스에서 주기적 재학습 비용을 줄이고자 할 때

ㅇ 시험 함정:
– 단순한 주기적 재학습(Periodic Retraining)과 혼동하기 쉬움
– Transfer Learning과는 달리 새로운 태스크 학습 시 이전 태스크 성능 유지가 필수
– Online Learning과 유사하지만, 장기적인 지식 유지가 강조됨

ㅇ 시험 대비 “패턴 보기” 예시:
O: “모델이 새로운 데이터 학습 후에도 기존 지식을 유지하는 학습 방식”
X: “새로운 데이터가 들어오면 기존 모델을 완전히 초기화하여 다시 학습하는 방식”

================================

1. Continual Learning

ㅇ 정의:
Continual Learning은 모델이 연속된 태스크나 데이터 스트림을 학습하면서 이전에 학습한 지식을 보존하고, 새로운 지식을 통합하는 머신러닝 접근 방식이다.

ㅇ 특징:
– Catastrophic Forgetting 방지 기법 필수
– 데이터 저장 비용 절감을 위해 제한된 메모리 사용
– Task Incremental, Domain Incremental, Class Incremental 등 시나리오 구분
– 학습 순서에 따라 성능 변동 가능성 존재

ㅇ 적합한 경우:
– 자율주행 차량이 다양한 도로 환경과 계절 변화에 적응해야 하는 경우
– 챗봇이 사용자 대화 패턴 변화를 반영해야 하는 경우
– 장기간 운영되는 제조 설비의 이상 탐지 모델

ㅇ 시험 함정:
– 단순 데이터 증분 학습(Incremental Learning)과 혼동
– Transfer Learning과의 경계 불명확
– 모든 Continual Learning이 Online Learning인 것은 아님

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Catastrophic Forgetting을 방지하며 새로운 데이터에 적응하는 학습 방법”
X: “과거 데이터를 모두 삭제하고 새로운 데이터만으로 학습하는 방법”

ㅁ 추가 학습 내용

Continual Learning 주요 접근 방식과 장단점
1. EWC(Elastic Weight Consolidation)
– 개념: 중요한 가중치의 변화를 억제하여 이전 지식 보존
– 장점: 이전 작업의 핵심 파라미터 보존에 효과적
– 단점: 중요한 파라미터 판단을 위한 추가 계산 필요, 대규모 모델에선 계산량 증가

2. LwF(Learning without Forgetting)
– 개념: 이전 작업의 출력을 distillation loss로 유지하며 새로운 작업 학습
– 장점: 원본 데이터 없이도 이전 지식 유지 가능
– 단점: 이전 모델 출력 품질에 의존, 작업 간 차이가 클 경우 성능 저하

3. GEM(Gradient Episodic Memory)
– 개념: 메모리에 저장된 과거 데이터의 손실이 증가하지 않도록 그래디언트 수정
– 장점: Catastrophic Forgetting 완화에 효과적
– 단점: 메모리 저장 공간 필요, 계산 복잡도 증가

4. Replay Buffer(Experience Replay)
– 개념: 과거 데이터를 일부 저장해 주기적으로 재학습
– 장점: 구현이 간단하고 효과가 직관적
– 단점: 메모리 제약, 개인정보나 민감 데이터 저장 어려움

Continual Learning 시나리오 구분
1. Class Incremental
– 새로운 클래스가 점진적으로 추가
– 이전 클래스 구분 능력 유지 필요

2. Task Incremental
– 서로 다른 태스크가 순차적으로 주어짐
– 태스크 구분 정보 제공됨

3. Domain Incremental
– 태스크 동일, 데이터 분포만 변화
– 예: 조명, 날씨 변화 등 환경 변화

Catastrophic Forgetting
– 정의: 새로운 작업 학습 시 이전 작업 성능이 급격히 저하되는 현상
– 완화 기법: EWC, LwF, GEM, Replay Buffer 등

Online Learning, Incremental Learning, Transfer Learning 비교
– Online Learning: 데이터가 순차적으로 도착하며 즉시 학습, 데이터 한 번만 사용
– Incremental Learning: 기존 지식 유지하며 새로운 데이터나 태스크 점진적으로 학습
– Transfer Learning: 한 도메인/태스크에서 학습한 지식을 다른 도메인/태스크로 이전

실무 적용 사례
– 자율주행: 다양한 도로·날씨 환경 변화에 적응
– 금융 사기 탐지: 새로운 사기 패턴 등장 시 모델 업데이트
– 개인화 추천 시스템: 사용자의 선호 변화에 따라 추천 모델 갱신

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*