AI: 핵심 원리 – Reparameterization Trick

ㅁ 핵심 원리

ㅇ 정의:
– Reparameterization Trick은 확률적 샘플링 과정을 미분 가능하게 변환하여 VAE 학습 시 역전파가 가능하도록 하는 기법이다. 구체적으로, 잠재 변수 z를 직접 샘플링하지 않고, 평균(mu)과 표준편차(sigma)를 이용해 z = mu + sigma * epsilon (epsilon ~ N(0,1)) 형태로 표현한다.

ㅇ 특징:
– 확률적 노이즈를 분리하여 신경망 파라미터에 대한 미분 가능성을 확보한다.
– 학습의 안정성과 효율성을 높인다.
– VAE의 핵심 구성 요소로, 잠재 공간의 연속성을 보장한다.

ㅇ 적합한 경우:
– 변분 오토인코더(VAE)와 같이 확률적 잠재 변수 모델을 학습할 때.
– 샘플링 과정이 포함되지만 학습을 위해 미분 가능한 형태가 필요한 경우.

ㅇ 시험 함정:
– 단순히 ‘샘플링 기법’이라고만 이해하면 오답. 핵심은 ‘미분 가능하게 만드는 변환’임.
– epsilon의 분포를 잘못 기재하는 경우(N(0,1) 아님).
– z = mu * sigma + epsilon 형태로 잘못 쓰는 경우.

ㅇ 시험 대비 “패턴 보기” 예시:
– O: “VAE에서 역전파를 가능하게 하기 위해 잠재 변수 샘플링을 평균과 표준편차, 표준정규분포 노이즈로 표현하는 기법”
– X: “VAE에서 샘플링 속도를 높이기 위해 사용하는 기법”
– X: “epsilon은 평균 0, 분산 sigma^2의 정규분포를 따른다”

ㅁ 추가 학습 내용

Reparameterization Trick은 Monte Carlo 추정과 결합되어 ELBO를 근사하는 데 사용된다. 이 기법은 연속형 잠재 변수에 적합하며, 이산형 잠재 변수의 경우 Gumbel-Softmax Trick과 같은 대체 기법이 필요하다. 직접 샘플링을 사용할 수 없는 이유는 샘플링 연산이 비미분 가능하여 역전파가 불가능하기 때문이다. Reparameterization Trick에서는 epsilon의 분포가 표준정규분포이며, mu와 sigma는 인코더 네트워크의 출력이라는 점이 중요하다.

답글 남기기

Your email address will not be published. Required fields are marked *.

*
*