AI: 핵심 개념
ㅁ 핵심 개념
1. Forward Process
ㅇ 정의:
데이터에 점진적으로 가우시안 노이즈를 추가하여 원본 데이터 분포를 점차 파괴하는 과정.
ㅇ 특징:
– 시간 스텝에 따라 노이즈 비율이 증가.
– 최종적으로 데이터가 순수 노이즈에 가까워짐.
– 마코프 체인 성질을 가짐.
ㅇ 적합한 경우:
– 확산 모델의 학습에서 데이터 분포를 잠재 공간으로 매핑할 때.
ㅇ 시험 함정:
– Forward Process는 생성 과정이 아니라 학습 시 데이터 파괴 과정임.
– 역과정(Reverse Process)과 혼동하기 쉬움.
ㅇ 시험 대비 “패턴 보기” 예시:
O: Forward Process는 데이터에 점진적으로 노이즈를 추가하는 과정이다.
X: Forward Process는 노이즈를 제거하며 이미지를 생성하는 과정이다.
================================
2. DDPM
ㅇ 정의:
Denoising Diffusion Probabilistic Models, 확률적 역과정을 통해 노이즈를 제거하며 데이터를 생성하는 모델.
ㅇ 특징:
– 역과정은 확률적 샘플링 기반.
– 많은 스텝이 필요하여 생성 속도가 느림.
– 안정적인 생성 품질.
ㅇ 적합한 경우:
– 고품질 이미지 생성이 필요하고 속도보다 품질이 중요한 경우.
ㅇ 시험 함정:
– DDPM은 deterministic 모델이 아님.
– 스텝 수를 줄이면 품질이 급격히 저하될 수 있음.
ㅇ 시험 대비 “패턴 보기” 예시:
O: DDPM은 확률적 역과정을 통해 노이즈를 제거한다.
X: DDPM은 한 번의 스텝으로 이미지를 생성한다.
================================
3. DDIM
ㅇ 정의:
Denoising Diffusion Implicit Models, DDPM의 변형으로 deterministic 역과정을 사용하여 적은 스텝으로 생성하는 모델.
ㅇ 특징:
– deterministic 샘플링 가능.
– 스텝 수를 줄여도 품질 저하가 상대적으로 적음.
– DDPM보다 빠른 생성.
ㅇ 적합한 경우:
– 빠른 생성과 일정 수준의 품질을 동시에 원하는 경우.
ㅇ 시험 함정:
– DDIM은 확률적 과정이 아님.
– DDIM과 DDPM의 품질 차이를 과대평가하거나 과소평가하는 문제.
ㅇ 시험 대비 “패턴 보기” 예시:
O: DDIM은 deterministic 역과정을 사용하여 빠르게 이미지를 생성한다.
X: DDIM은 무조건 DDPM보다 품질이 높다.
================================
4. Noise Prediction
ㅇ 정의:
주어진 노이즈가 섞인 데이터에서 원본 데이터를 복원하기 위해 현재 시점의 노이즈를 예측하는 과정.
ㅇ 특징:
– 모델의 출력이 노이즈 자체.
– 예측된 노이즈를 이용해 역과정에서 노이즈 제거.
– 학습 시 MSE Loss를 많이 사용.
ㅇ 적합한 경우:
– 확산 모델 학습의 핵심 단계.
ㅇ 시험 함정:
– 모델이 직접 이미지를 출력한다고 오해.
– 노이즈 예측과 데이터 예측을 혼동.
ㅇ 시험 대비 “패턴 보기” 예시:
O: Noise Prediction은 현재 시점의 노이즈를 추정하는 과정이다.
X: Noise Prediction은 원본 이미지를 직접 생성하는 과정이다.
================================
5. Score-based Generative Models
ㅇ 정의:
데이터의 로그 확률 밀도 함수의 기울기(score function)를 학습하여 샘플링하는 생성 모델.
ㅇ 특징:
– score function을 통해 데이터 분포의 구조를 학습.
– 확산 모델과 동일하거나 유사한 수학적 기반.
– SDE(확률 미분 방정식) 기반 접근 가능.
ㅇ 적합한 경우:
– 물리 기반 시뮬레이션, 복잡한 데이터 분포 샘플링.
ㅇ 시험 함정:
– score function을 확률값으로 착각.
– 확산 모델과 완전히 다른 개념이라고 오해.
ㅇ 시험 대비 “패턴 보기” 예시:
O: Score-based Generative Models는 데이터의 로그 확률 밀도 기울기를 학습한다.
X: Score-based Generative Models는 확률값을 직접 예측한다.
ㅁ 추가 학습 내용
Forward Process와 Reverse Process의 수학적 정의
– Forward Process: p(x_t | x_{t-1})
데이터 x_{t-1}에 점진적으로 가우시안 노이즈를 추가하여 x_t를 생성하는 확률 분포.
– Reverse Process: p(x_{t-1} | x_t)
노이즈가 섞인 x_t로부터 원본 데이터 방향으로 복원하는 확률 분포.
DDPM과 DDIM 비교
항목 / DDPM / DDIM
스텝 수 / 많음(수백~수천) / 적음(수십~수백)
확률성 여부 / 확률적 샘플링 / 결정론적 샘플링 가능
품질 유지 / 스텝 수 감소 시 품질 저하 가능 / 적은 스텝에서도 품질 유지
Noise Prediction 방식
– epsilon 예측: 현재 시점의 노이즈 ε를 직접 예측하여 원본 데이터 복원
– x0 예측: 현재 시점에서 원본 데이터 x0를 직접 예측하여 역방향 진행
Score-based Generative Models
– Langevin Dynamics와의 관계: 데이터 분포의 로그 확률 기울기를 이용하여 샘플을 점진적으로 개선하는 방식이 Langevin Dynamics와 동일한 수학적 구조를 가짐
– SDE 기반 샘플링 절차: 확률 미분방정식(Stochastic Differential Equation)을 기반으로 시간에 따라 노이즈를 추가·제거하며 샘플 생성
Beta 스케줄링과 Forward Process 품질
– 선형 스케줄: 일정한 비율로 β 증가, 구현이 단순하나 초기·후기 노이즈 분포가 최적이 아닐 수 있음
– 코사인 스케줄: 코사인 곡선을 따라 β 변화, 시각적으로 더 부드럽고 품질 향상 가능