AI 모델 개발: 시스템 구축

ㅁ 시스템 구축

1. 컨티뉴얼 러닝

ㅇ 정의:
– 데이터가 시간에 따라 순차적으로 도착할 때, 과거 학습 내용을 유지하면서 새로운 데이터를 반영해 모델을 지속적으로 업데이트하는 학습 방식.

ㅇ 특징:
– 과거 데이터 재학습 없이 새로운 데이터만으로 모델 갱신 가능
– 데이터 분포 변화(Concept Drift)에 대응
– 메모리 및 연산 효율성 중요

ㅇ 적합한 경우:
– IoT 센서 데이터, 실시간 로그 분석, 사용자 행동 예측 등 데이터가 지속적으로 유입되는 환경

ㅇ 시험 함정:
– 단순 온라인 학습과 혼동 가능
– 모든 컨티뉴얼 러닝이 메모리 사용이 적은 것은 아님

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “데이터 분포 변화에 적응하며 과거 지식을 유지하는 학습 방식”
– X: “새로운 데이터 학습 시 기존 지식을 모두 폐기하는 방식”

2. 온라인 학습

ㅇ 정의:
– 데이터가 한 건씩 또는 소규모 배치로 도착할 때마다 즉시 모델을 업데이트하는 방식.

ㅇ 특징:
– 실시간성 요구 충족
– 메모리 사용량이 적음
– 데이터 순서에 민감

ㅇ 적합한 경우:
– 금융 거래 이상 탐지, 실시간 추천 시스템

ㅇ 시험 함정:
– 배치 학습과 비교 시 학습 안정성보다 즉시성 강조

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “데이터가 도착할 때마다 모델을 즉시 갱신”
– X: “모든 데이터를 모아 한 번에 학습”

3. 배치 학습

ㅇ 정의:
– 일정량의 데이터를 모아 한 번에 학습하는 방식.

ㅇ 특징:
– 학습 안정성과 정확성이 높음
– 대규모 연산 자원 필요
– 실시간성 낮음

ㅇ 적합한 경우:
– 정기 리포트 생성, 주기적 모델 갱신

ㅇ 시험 함정:
– 온라인 학습과 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “데이터를 일정 기간 모아 한 번에 학습”
– X: “데이터가 들어올 때마다 즉시 모델 갱신”

4. 슬라이딩 윈도우

ㅇ 정의:
– 최근 일정 기간 또는 개수의 데이터만을 사용하여 모델을 학습·갱신하는 기법.

ㅇ 특징:
– 오래된 데이터의 영향 제거
– 메모리 사용량 제한 가능
– 윈도우 크기 설정이 성능에 큰 영향

ㅇ 적합한 경우:
– 계절성 데이터 분석, 최신 트렌드 반영

ㅇ 시험 함정:
– 전체 데이터 사용과 혼동

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “최근 데이터만으로 모델을 갱신”
– X: “모든 과거 데이터를 항상 반영”

5. 오프라인/온라인 테스트

ㅇ 정의:
– 오프라인 테스트: 과거 데이터셋을 사용하여 모델 성능을 평가
– 온라인 테스트: 실제 운영 환경에서 실시간으로 모델 성능을 평가

ㅇ 특징:
– 오프라인: 재현 가능, 안전
– 온라인: 실제 사용자 반응 반영, 위험성 존재

ㅇ 적합한 경우:
– 오프라인: 모델 개발 단계
– 온라인: 모델 배포 후 성능 검증

ㅇ 시험 함정:
– 오프라인 결과가 온라인 성능을 항상 보장하지 않음

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “실제 환경에서 A/B 테스트를 수행하는 것은 온라인 테스트”
– X: “과거 데이터로 평가하는 것은 온라인 테스트”

ㅁ 추가 학습 내용

[학습 정리]
컨티뉴얼 러닝(Continual Learning)에서는 Catastrophic Forgetting(급격한 망각) 문제가 핵심 이슈로, 이전에 학습한 지식을 새로운 데이터 학습 과정에서 잃어버리는 현상을 의미한다. 이를 완화하기 위한 대표적 기법은 다음과 같다.
– Replay Buffer: 과거 데이터 일부를 저장해 주기적으로 재학습
– Regularization: 중요한 파라미터 변화에 패널티를 부여해 기존 지식 보존
– Dynamic Architecture: 새로운 데이터나 태스크에 맞춰 모델 구조를 확장

온라인 학습(Online Learning)과 배치 학습(Batch Learning)의 차이는 다음과 같다.
– 데이터 처리 단위: 온라인은 개별 혹은 소규모 샘플 단위, 배치는 대규모 데이터셋 단위
– 학습 주기: 온라인은 지속적/실시간, 배치는 주기적/일괄
– 연산 자원 요구: 온라인은 지속적 처리, 배치는 일시적으로 큰 연산 자원 필요

슬라이딩 윈도우(Sliding Window)는 일정 크기의 데이터 구간을 이동시키며 분석하는 방식으로, 윈도우 크기와 이동 간격이 예측 성능에 직접적인 영향을 준다.
– 윈도우 크기: 크면 장기 패턴 반영, 작으면 최신 변화 민감
– 이동 간격: 작으면 세밀한 변화 감지, 크면 계산량 감소

Concept Drift 탐지 기법으로 ADWIN, DDM 등이 있으며, 슬라이딩 윈도우 방식과 결합 가능하다.

오프라인/온라인 테스트에서는 실제 서비스 배포 전략이 중요하다.
– A/B 테스트: 두 버전을 동시에 운영해 성능 비교
– Shadow Deployment: 새로운 모델이 실제 요청을 처리하되 결과는 사용자에게 미노출
– Canary Release: 일부 사용자에게만 점진적으로 배포

오프라인 지표와 온라인 지표 불일치의 원인에는 데이터 분포 차이, 사용자 행동 변화, 환경 변화 등이 있다.

[시험 대비 체크리스트]
1. Catastrophic Forgetting 정의와 발생 원인 설명 가능 여부
2. Replay Buffer, Regularization, Dynamic Architecture의 원리와 장단점 숙지
3. 온라인 학습 vs 배치 학습의 차이점(데이터 단위, 주기, 자원) 비교 설명 가능 여부
4. 슬라이딩 윈도우의 크기와 이동 간격이 성능에 미치는 영향 이해
5. ADWIN, DDM의 개념과 동작 방식 숙지
6. A/B 테스트, Shadow Deployment, Canary Release의 특징과 적용 사례 설명 가능 여부
7. 오프라인 지표와 온라인 지표 불일치 원인 분석 가능 여부

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*