AI: 생성 모델

ㅁ 생성 모델

1. Classifier-Free Guidance

ㅇ 정의:
조건부 생성 모델에서 별도의 분류기 없이, 조건부와 무조건부 생성 결과를 조합하여 원하는 조건을 강화하는 기법.

ㅇ 특징:
– 추가 분류기 학습 불필요.
– 조건 강도를 가중치로 조절 가능.
– 텍스트-이미지 생성에서 자주 사용.

ㅇ 적합한 경우:
– 조건 데이터가 충분하지 않거나 분류기 학습이 부담스러운 경우.
– 조건 제어 강도를 유연하게 조절하고 싶은 경우.

ㅇ 시험 함정:
– 분류기를 사용하지 않는다고 해서 무조건 비지도 학습이라는 오해.
– Guidance Scale이 높을수록 항상 좋은 품질을 보장하는 것은 아님.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Classifier-Free Guidance는 조건부와 무조건부 예측을 혼합하여 조건 강도를 조절한다.”
X: “Classifier-Free Guidance는 별도의 분류기를 학습하여 조건을 강화한다.”

================================

2. Latent Diffusion Models

ㅇ 정의:
고차원 데이터(예: 이미지)를 저차원 잠재 공간(latent space)으로 변환한 뒤, 그 공간에서 확산 모델을 학습하는 방식.

ㅇ 특징:
– 연산 효율성 향상.
– 고해상도 이미지 생성 가능.
– VAE(Variational Autoencoder) 등 인코더-디코더 구조와 결합.

ㅇ 적합한 경우:
– 메모리와 연산량이 제한된 환경에서 고품질 이미지를 생성해야 하는 경우.

ㅇ 시험 함정:
– Latent space에서 학습한다고 해서 정보 손실이 전혀 없다고 착각.
– 픽셀 공간에서 직접 학습하는 것보다 무조건 성능이 좋다고 단정.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Latent Diffusion Models는 잠재 공간에서 확산 과정을 수행하여 효율성을 높인다.”
X: “Latent Diffusion Models는 반드시 픽셀 공간에서만 학습한다.”

================================

3. Score Matching

ㅇ 정의:
데이터의 확률 밀도 함수의 로그 그래디언트를 추정하여 모델이 데이터 분포를 학습하도록 하는 방법.

ㅇ 특징:
– 확률 밀도 추정 대신 스코어 함수 추정.
– 확산 모델 및 에너지 기반 모델 학습에 활용.
– 노이즈를 추가한 변형(denoising score matching) 존재.

ㅇ 적합한 경우:
– 명시적인 확률 밀도 함수를 구하기 어려운 경우.
– 고차원 연속 데이터 학습.

ㅇ 시험 함정:
– Score Matching이 확률 밀도를 직접 계산한다고 오해.
– Denoising Score Matching과 동일하다고 혼동.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Score Matching은 로그 확률의 기울기를 추정하여 분포를 학습한다.”
X: “Score Matching은 확률 밀도를 직접 계산하는 방법이다.”

================================

4. Noise Scheduling

ㅇ 정의:
확산 모델에서 시간 단계별로 노이즈의 크기(분산)를 조절하는 전략.

ㅇ 특징:
– 노이즈 증가/감소 패턴에 따라 학습 안정성과 품질이 달라짐.
– 선형, 코사인, 지수 등 다양한 스케줄링 방식 존재.

ㅇ 적합한 경우:
– 특정 품질-속도 트레이드오프를 최적화하려는 경우.
– 안정적인 학습과 생성 품질 확보가 필요한 경우.

ㅇ 시험 함정:
– 스케줄링이 단순히 노이즈를 무작위로 주입하는 것이라고 오해.
– 모든 스케줄링 방식이 동일한 성능을 낸다고 착각.

ㅇ 시험 대비 “패턴 보기” 예시:
O: “Noise Scheduling은 단계별 노이즈 크기를 설계하여 학습 품질을 조절한다.”
X: “Noise Scheduling은 학습 중 노이즈 크기를 무작위로 결정한다.”
================================

ㅁ 추가 학습 내용

Classifier-Free Guidance에서는 Guidance Scale이 지나치게 높을 경우 이미지 왜곡이나 모드 붕괴가 발생할 수 있다.
Latent Diffusion Models에서는 VAE 인코더의 품질이 최종 생성물 품질에 직접적인 영향을 미치므로, 인코더 아키텍처와 학습 품질이 중요하다.
Score Matching에서는 확률적 미분 방정식(SDE) 기반 확산 모델과의 연계가 출제될 수 있으며, Fisher Divergence와의 관계를 이해해야 한다.
Noise Scheduling에서는 학습 단계와 샘플링 단계의 스케줄이 다를 수 있으며, DDPM, DDIM 등 다양한 샘플링 기법과의 연계가 시험에 나올 수 있다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*